POSICIONAMIENTO WEB: EL ÚLTIMO ALGORITMO

Las aguas del posicionamiento web bajan revueltas estos días. Es cierto que los expertos en SEO parecen no poder vivir sin sobresaltos. Y es que son precisamente esas novedades SEO, en constante ebullición, las que alimentan el ansia de cualquier experto en posicionamiento en acaparar todas las pistas posibles sobre cómo posicionar una página web en la primera página de resultados. Se trata de un mundo no apto para no iniciados, dedicado a desentrañar las directrices procedentes de cualquier comunicación oficial o extraoficial relacionada con el macrobuscador.

Lo último es el llamado algoritmo de la verdad. Y tiene su origen en la enésima comunicación sobre SEO de Google.

Básicamente se trataría de un nuevo giro en la estrategia de posicionamiento desarrollada por el buscador a la hora de valorar el contenido de cada Sitio Web como relevante y, en consecuencia, digno de aparecer en las primeras posiciones en los resultados de búsqueda, frente a otros que lo serían menos.

Se trataría de atribuir el valor y la posición que merece una página web a partir de hechos y no de meros enlaces. Si antes el papel de los enlaces externos, incluidos los procedentes de las redes sociales, era determinante a la hora de juzgar la relevancia de un website, ahora se trata de si la información facilitada por un determinado sitio web puede considerarse digna de confianza por ser tenida como cierta y verdadera.

¿Pero cómo un buscador aparentemente ciego y sordo como Google puede discernir la verdad de la mentira? ¿Acaso sus insensibles y despiadadas arañas – los llamados crawlers o robots de búsqueda que rastrean a diario Internet – se han vuelto inteligentes de repente?

Lo cierto es que, el algoritmo del macrobuscador se ha venido perfeccionando desde sus orígenes, con sonadas actualizaciones como Penguin, Panda o Colibrí, que trataban de incorporar elementos de juicio novedosos para el posicionamiento, o seguir tendencias como la llamada web semántica u otras. Ahora se habla de dar una nueva vuelta de tuerca, hasta el punto de introducir cambios en el algoritmo de Google que podrían llevar a la  completa superación del llamado Page Rank, el eje central en la concepción inicial del buscador, por irrelevante, en comparación a lo que se avecina.

Si antes primaba la filosofía de la viralidad y el clickbait, que otorgaba sus bendiciones a los sitios web más populares, más visitados o enlazados, o cuyos contenidos eran masivamente compartidos en las redes sociales, ahora – dicen -, el metabuscador se ha vuelto escrupuloso y pretende valorar la credibilidad y la calidad por encima de la popularidad o del mero sensacionalismo de algunos contenidos.

Tras esta concepción, parece estar la mano de Ray Kurzweil, uno de los Directores de Ingeniería de Google con más proyección en el ámbito de la inteligencia artificial,  cuyos postulados adoptarían la forma del llamado Knowledge-Based Trust (KBT) o análisis de la confianza basada en el conocimiento, para valorar la relevancia de una web. Y todo eso con el fin de acabar con los oscuros manejos tan habituales entre esos webmasters expertos en black hat SEO, obsesionados por ganar popularidad a cualquier precio, generadores de mucho contenido-basura, pero también de mucho tráfico captado a través de múltiples señuelos.

Si la idea es que Google otorgue la gracia de un posicionamiento web privilegiado a las páginas web que dicen la verdad frente a las que no lo hacen, o lo hacen menos, la pregunta obligada es ¿cómo diablos podría hacer algo así? La respuesta nos lleva al apasionante debate de hasta qué punto la inteligencia artificial puede competir con la muy vapuleada inteligencia humana. En principio, no parce tan difícil. No se trataría más que de rastrear a fondo un determinado sitio web y evaluar la fiabilidad de sus contenidos por comparación a un corpus de otros sitios web de la máxima autoridad, tal y como ésta sería establecida y reconocida por Google. Los problemas – y las críticas – surgen precisamente ahí. ¿Quien establece el canon de lo que ha de considerarse como verdades universales o comúnmente admitidas? ¿cuáles son sus fuentes?  ¿Estamos hablando sólo de Wikipedia o de revistas cientfíficas como Nature? ¿Boletines oficiales de los gobiernos? ¿Agencias de Noticias como Reuters?…¿páginas como Wikileaks?.

Más allá de la posibilidad real de hacer algo así con un mínimo de coherencia y exactitud, se habla nuevamente de la amenaza de una manipulación global o de censura informativa de facto. Creemos que, no exentos de fundamento, estos temores suponen atribuir al gigante de Mountain View un poder casi omnímodo. De ser ciertos, podrían convertir al macrobuscador en algo mucho peor que el Computador Algorítmico Heurísiticamente Programado, más conocido como HAL 9000, el malvado ordenador de a bordo del mítico film 2001 Una Odisea del espacio.

Al menos HAL podía pensar y hablar con un cierto atisbo de autonomía y personalidad propia – no en vano sus diálogos no eran más que invenciones de imaginativos guionistas entusiastas de la Sci-Fi – . Ahora bien, por muchos avances que se hayan dado en campos como la robótica o la inteligencia artificial, se hace difícil imaginar hoy día a un autómata programado con el que resulte factible mantener una conversación fluida en términos humanos. Es decir, una charla auténtica en la que más allá de una serie de respuestas estereotipadas y predeterminadas, sea posible incorporar con naturalidad elementos como el doble sentido, la ironía, el humor u otras emociones humanas.

Y  precisamente algo así, debería suceder con el llamado algoritmo de la verdad. Puede intentarse. Incluso puede llegar a hacerse. Pero la verdad seguirá estando ahí fuera.

Agencia de Publicidad en Asturias