Del texto al hipertexto: ¿Escribiendo para robots?

La paradoja actual del blog y la literatura online

¿Para allá vamos?

¿Para allá vamos?

Por. Carlos Andrés Naranjo Sierra
La internet es uno de los experimentos más interesantes que ha llevado a cabo la humanidad en épocas recientes. En una mezcla de anarquismo y virtualidad, los habitantes del planeta han comenzado a mamar permanentemente de la red desde todos los dispositivos electrónicos posibles. En todas las urbes del mundo, dónde hoy vive más del 80% de la población mundial, salvo contadas excepciones de países con censura, hay conexión a internet y cada vez son más las personas que tienen acceso a ésta.

Cada día se generan entre blogs y páginas web cerca de 100.000 artículos con aproximadamente 500 millones de palabras. Si alguien comenzara a leer lo que se publica en un día, en jornadas de diez horas, tardaría cerca de 23 años en completar la estoica labor. Sumado a lo anterior, debemos considerar que en el mundo hay más de 6.000 idiomas y dialectos en los que se escriben y comparten los textos, imágenes, audios y videos que corren en direcciones dispares por la autopista de la información.

La Biblioteca de Babel
Ésto ha planteado un serio problema para la organización y el acceso de la información de la red. La internet es actualmente una especie de Biblioteca de Babel, donde los libros están desorganizados por todo el espacio, con diferentes códigos y en diferentes idiomas, haciendo prácticamente imposible la labor del bibliotecario, que hasta hace pocos años podía cómodamente clasificar por Autor, Título y Materia la totalidad de su colección de libros, revistas y materiales audiovisuales.

Y es aquí donde hacen su aparición los famosos motores de búsqueda. Con la idea inicial de clasificar las información que todos los días aparece en internet, surgieron empresas como Altavista (ya difunta), Yahoo y Google. Una labor harto difícil y en la que se han planteado varios algoritmos para proveer resultados útiles y relevantes a los usuarios pero que debe mutar con frecuencia conforme cambia el tejido vivo de la información. Hoy en día estos portales han alcanzado tamaños colosales, al punto de que 8 de cada 10 personas que navega en la red, consulta algún buscador al menos una vez al día y uno solo de ellos, Google, domina el 90% de éstas búsquedas.

Encontrar el dato en el pajar
Así entonces los escritores y lectores de hoy, nos enfrentamos a un nuevo panorama de la búsqueda y localización de la información basados en un nuevo mundo llenos de datos multimedia en los que los antiguos cánones de clasificación se han vuelto obsoletos. Ahora el consumo de un artículo depende de los términos de búsqueda introducidos por el usuario y el algoritmo de los robots de Google para posicionarlo. Si la publicación no está en los primeros resultados de búsqueda es muy probable que nunca salga de la mazmorra del anonimato.

Por supuesto, siguen y seguirán existiendo (eso espero) otros caminos para que la creación literaria se reproduzca en la imaginación del público, tales como las conferencias, las ferias o los círculos académicos, pero la verdad es que cada vez son más reducidas estas posibilidades físicas y muchas de ellas también han comenzado a emigrar, incluso a utilizar con un fervor inusitado, los medios digitales.

Escribiendo para robots
Asistimos casi sin darnos cuenta a un nuevo escenario donde miles de robots recorren diariamente los vericuetos de la autopista de la información, leyendo y clasificando el hipertexto (lenguaje .html en el que se escribe codifica y decodifica la red http://) para nosotros, de acuerdo a un código secreto que construye diariamente Google en sus oficinas de Palo Alto, California. y del que se sospechan algunos criterios pero no se sabe a ciencia cierta la totalidad de su secuencia de pasos.

Dentro de las cosas que se sospechan que el algoritmo de Google prioriza, están: El uso de términos claves (coincidencia entre búsqueda y resultado), el número de veces que se repite éste término (ni mucho ni muy poco) las veces que aparece éste en títulos y subtítulos, la longitud del artículo (superior a las 700 palabras), el tiempo que pasa el lector en la página dónde se encuentra publicada (entre más mejor), el ranking del sitio donde es publicado (Pagerank) y el número de veces que es enlazado a otros sitios y compartido en redes sociales.

Los robots no entienden la metáfora
De repente han aparecido, a diestra y siniestra, batallones completos de tecnólogos que escriben y dan cursos sobre SEO (Search Engine Opimization), de los cuales hago parte, con el fin de enseñar a los humanos a escribir de modo que los robots de Google indexen sus creaciones entre los primeros lugares de búsqueda. Invirtiendo así la intención original de los buscadores que consistía en afinarse para localizar los mejores resultados y no en que los resultados se afinaran para que éstos los localizaran.

Sin embargo los robots aún son incapaces de entender la metáfora y las imágenes. Las fotos, los videos y la poesía no pueden decodificarse adecuadamente en el lenguaje .html pues lo único que aparece a los ojos del robot, es una secuencia binaria de números y es el humano el que debe indicarle al buscador, por medio de palabras clave, que contiene esa imágenes o que significa esa metáfora. Haciendo que miles de significantes queden libres en el ciberespacio sin un significado adecuado. La sintaxis y la semántica no logran enlazarse adecuadamente en el alma robot.

¿Qué será de la metáfora?
Posiblemente a medida que aumente la velocidad del procesamiento de la información y mejoren los algoritmos, los robots se acerquen a nuestro sistema de pensamiento por medio de la inteligencia artificial. Pero lo único cierto es que hoy aún no logran indexar una de las partes más interesantes de la expresión artística y literaria del ser humano. Reemplazar un significado por otro en la misma expresión sigue siendo inaccesible para el buscador, que aunque ha comenzado a entender el contexto, no logra sintetizar adecuadamente la palabra polisémica y menos aún las imágenes, haciendo que expresiones como «la albiceleste se corona campeona» o «la lucha contra los molinos de viento» sean irreconocibles para el posicionamiento web.

La poesía, el humor y el arte, entre otras creaciones humanas, siguen escapándosele a la clasificación. El buscador no tiene la capacidad y los artistas no saben aún, no quieren o simplemente no les es posible, indicarle a los robots el significado de cada una de las expresiones de sus obras, pues muchas de ellas se hacen precisamente para ser interpretadas y no tendría sentido condenarlas a un tema específico troquelando su significado. Eso si, habrá se saber, que en ese caso la obra nunca aparecerá en los primeros resultados de búsqueda de Google, de Yahoo, de Bing o de cualquier buscador actual.

¿Los artistas comenzarán entonces a disminuir sus metáforas en aras de que los robots indexen sus creaciones para hacerlas visibles? Algunos ya han comenzado a hacerlo, otros continúan escribiendo para humanos con menos éxito en internet y otros tantos propenden por un punto intermedio entre los términos literales y los términos idiomáticos, metafóricos y culturales. ¿Podrán los buscadores eliminar la metáfora sin darse cuenta? ¿Valdría la pena promover un día al año en que los buscadores disparen resultados aleatorios para que salgan del anonimato refrescantes artículos? ¿Los lectores comenzarán a buscar de otras formas para encontrar lo que realmente quieren? El tema queda abierto.

PD: Especial agradecimiento a Cristina Sánchez @acropalabrista, que en mi días de 2014 en Madrid, España, se atrevió a reunirse conmigo y opinar sobre las evoluciones de este texto.