EL √öLTIMO ALGORITMO DE GOOGLE

Las aguas del posicionamiento web bajan revueltas estos días.

Es cierto que los expertos en¬†SEO parecen no poder vivir sin sobresaltos. Y es que son precisamente esas novedades SEO, en constante ebullici√≥n. Dichas novedades alimentan el ansia de cualquier experto en posicionamiento en¬†acaparar todas las pistas posibles sobre¬†c√≥mo posicionar una p√°gina web en la primera p√°gina de resultados. Se trata de un mundo no apto para no iniciados. Un mundo dedicado a desentra√Īar¬†las directrices procedentes de cualquier¬†comunicaci√≥n oficial o extraoficial relacionada con el macrobuscador.

Algoritmo de la verdad.

B√°sicamente se tratar√≠a de un nuevo giro en la estrategia de¬†posicionamiento desarrollada por el¬†buscador a la hora de valorar el contenido de cada Sitio Web como relevante.¬†Y¬†en consecuencia, digno de aparecer en las primeras posiciones¬†en los resultados de b√ļsqueda, frente a otros que lo ser√≠an menos.

Se trataría de atribuir el valor y la posición que merece una página web a partir de hechos y no de meros enlaces. Si antes el papel de los enlaces externos, incluidos los procedentes de las redes sociales, era determinante a la hora de juzgar la relevancia de un website, ahora se trata de si la información facilitada por un determinado sitio web puede considerarse digna de confianza por ser tenida como cierta y verdadera.

¬ŅPero c√≥mo un buscador aparentemente ciego y sordo como Google puede discernir la verdad de la mentira?
¬ŅAcaso sus insensibles y despiadadas ara√Īas – los llamados crawlers o robots de b√ļsqueda que rastrean a diario¬†Internet – se han vuelto inteligentes de repente?

Actualizaciones de algoritmos.

Lo cierto es que, el algoritmo del macrobuscador se ha venido perfeccionando desde sus orígenes. Han habido sonadas actualizaciones como Penguin, Panda o Colibrí, que trataban de incorporar elementos de juicio novedosos para el posicionamiento. Actualizaciones que tienen en cuenta entre otras, la llamada web semántica. Ahora se habla de dar una nueva vuelta de tuerca. Se han de introducir cambios en el algoritmo de Google que podrían llevar a la  completa superación del llamado Page Rank, el eje central en la concepción inicial del buscador, por irrelevante, en comparación a lo que se avecina.

Si antes primaba la filosofía de la viralidad y el clickbait, que otorgaba sus bendiciones a los sitios web más populares, más visitados o enlazados, o cuyos contenidos eran masivamente compartidos en las redes sociales, ahora Рdicen -, el metabuscador se ha vuelto escrupuloso y pretende valorar la credibilidad y la calidad por encima de la popularidad o del mero sensacionalismo de algunos contenidos.

Tras esta concepci√≥n, parece estar la mano de Ray Kurzweil, uno de los Directores de Ingenier√≠a de Google con m√°s proyecci√≥n en el √°mbito de la inteligencia artificial, ¬†cuyos postulados adoptar√≠an la¬†forma del llamado¬†Knowledge-Based Trust (KBT) o an√°lisis de la confianza basada en el conocimiento, para valorar la relevancia de una web. Y todo eso con el fin de acabar con los oscuros manejos tan¬†habituales entre esos webmasters expertos en black hat SEO, obsesionados por ganar popularidad a cualquier precio, generadores de mucho contenido-basura, pero tambi√©n de mucho tr√°fico captado a trav√©s de m√ļltiples se√Īuelos.

Inteligencia artificial.

Si la idea es que Google otorgue la gracia de un posicionamiento web privilegiado a las p√°ginas web que dicen la verdad frente a las que no lo hacen, o lo hacen menos, la pregunta obligada es ¬Ņc√≥mo diablos podr√≠a hacer algo as√≠? La respuesta nos lleva al apasionante debate de hasta qu√© punto¬†la inteligencia artificial puede competir con la muy¬†vapuleada inteligencia humana. En principio, no parce¬†tan dif√≠cil. No se tratar√≠a m√°s que de rastrear a fondo un determinado sitio web y evaluar la fiabilidad de sus contenidos por comparaci√≥n a un corpus de otros sitios web de la m√°xima autoridad, tal y como √©sta ser√≠a establecida y reconocida por Google. Los problemas – y las cr√≠ticas – surgen precisamente ah√≠. ¬ŅQuien establece el canon de lo que ha de considerarse como verdades universales o com√ļnmente admitidas? ¬Ņcu√°les son sus fuentes? ¬†¬ŅEstamos hablando s√≥lo de Wikipedia o de revistas cientf√≠ficas como Nature? ¬ŅBoletines oficiales de los gobiernos? ¬ŅAgencias de Noticias como Reuters?…¬Ņp√°ginas como Wikileaks?

HAL.

Más allá de la posibilidad real de hacer algo así con un mínimo de coherencia y exactitud, se habla nuevamente de la amenaza de una manipulación global o de censura informativa de facto. Creemos que, no exentos de fundamento, estos temores suponen atribuir al gigante de Mountain View un poder casi omnímodo. De ser ciertos, podrían convertir al macrobuscador en algo mucho peor que el Computador Algorítmico Heurísiticamente Programado, más conocido como HAL 9000, el malvado ordenador de a bordo del mítico film 2001 Una Odisea del espacio.

Al menos HAL podía pensar y hablar con un cierto atisbo de autonomía y personalidad propia Рno en vano sus diálogos no eran más que invenciones de imaginativos guionistas entusiastas de la Sci-Fi Р. Ahora bien, por muchos avances que se hayan dado en campos como la robótica o la inteligencia artificial, se hace difícil imaginar hoy día a un autómata programado con el que resulte factible mantener una conversación fluida en términos humanos. Es decir, una charla auténtica en la que más allá de una serie de respuestas estereotipadas y predeterminadas, sea posible incorporar con naturalidad elementos como el doble sentido, la ironía, el humor u otras emociones humanas.

Y  precisamente algo así, debería suceder con el llamado algoritmo de la verdad. Puede intentarse. Incluso puede llegar a hacerse. Pero la verdad seguirá estando ahí fuera.

[Total: 0   Promedio: 0/5]