Google es —al menos hasta que ChatGPT diga lo contrario— el gran oráculo digital de nuestra era. Acudimos a él para consultar millones de búsquedas, y aparecer en sus primeras posiciones puede hacer que un negocio o una web resulta un éxito o hundirse por completo. Ahora, justo en el momento en el que Google está llevando hacia delante las primeras integraciones de respuestas con inteligencia artificial, hemos conocido la mayor filtración sobre su preciado algoritmo hasta la fecha.
El asunto no es menor porque Google sigue cimentando gran parte de sus ingresos en su buscador, su producto estrella. Sobre él construye su negocio de publicidad y otros añadidos como Google Chrome y su hegemonía en otros productos como Gmail o Workspace.
Pero, ¿qué se ha descubierto en concreto? La filtración masiva de documentos internos ha desvelado algunos de los secretos mejor guardados del algoritmo de Google Search. Miles de documentos ha sido compartidos a Rand Fishkin, de la plataforma SparkToro, lo que nos ha dado una visión sin precedentes de los factores que Google utiliza para clasificar el contenido.
Desde los clics y enlaces hasta los datos del navegador Chrome: esta es la primera vez que podemos saber a ciencia cierta algo sobre el mayor secreto de Google.
Miles de documentos internos de Google fueron compartidos con Rand Fishkin, cofundador de SparkToro y con Mike King, analista de iPullRank.
Estos documentos provendrían del Content API Warehouse de Google y ofrecen una visión detallada de los elementos que Google utiliza para clasificar contenido
Los documentos revelan la existencia de 2.596 módulos de ranking representados en la documentación de la API, con 14.014 atributos. Aunque no especifican el peso de cada factor, sí confirman su existencia.
Entre estos factores, se destacan los “Twiddlers”, funciones que pueden ajustar la puntuación de recuperación de información de un documento o cambiar su clasificación. Es decir, hacer que una web suba en los resultados o baje según los propios ajustes de Google más allá de su algoritmo original.
Además, se describen razones por las cuales el contenido puede ser degradado, como enlaces que se valoran como no adecuados, señales de insatisfacción del usuario en las SERP (los resultados de una búsqueda), y reseñas de productos que no son satisfactorios.
Una de las confirmaciones más relevantes de la filtración es que la diversidad y relevancia de los enlaces desde una web a otra siguen siendo claves, a pesar de que Google ha ido quitando peso a este factor oficialmente.
El denominado PageRank, un concepto introducido por Google en sus primeros años como compañía, aún juega un papel importante en el algoritmo, al ser el encargado de ‘ordenar’ la web según como unas webs se enlazan con otras.
Los documentos subrayan que para mantener una buena clasificación es esencial crear contenido de calidad que atraiga enlaces diversos y relevantes.
Otro aspecto crucial revelado es la importancia de los “clics exitosos”. Esto quiero de decir que Google mide varias métricas relacionadas con los clics interpretando si han sido satisfactorios para el usuario o no.
El concepto de “siteAuthority” también aparece en los documentos, indicando que Google utiliza este parámetro para clasificar webs por su supuesta autoridad. Además, se revela que Google utiliza datos de su navegador Chrome para ayudar en el ranking de búsqueda, a través de un módulo llamado “ChromeInTotal”.
La filtración de estos documentos ofrece una visión sin precedentes de cómo Google clasifica el contenido y también una ventana a posibles manipulaciones que hasta ahora solo se sospechaban. Pero lo más importante sin duda alguna será lo que Google comunique al respecto y como puedo estar afectarle en un momento donde la aparición de la IA y las críticas sobre las últimas actualizaciones del algoritmo son constantes.