La filtración del algoritmo de Google revela los secretos del motor de búsqueda
Conseguir tu Trinidad Audio jugador listo...

El 27 de mayo de 2024 se confirmó una filtración sin precedentes que sacudió el mundo del SEO (Search Engine Optimization): miles de páginas de documentos internos de Google que contienen detalles sobre el algoritmo de búsqueda de la empresa fueron publicadas en línea. Este evento histórico, denominado "Fuga del algoritmo de Google", expuso secretos guardados durante mucho tiempo sobre el funcionamiento de la herramienta de búsqueda más popular del mundo y generó un torbellino de preguntas sobre el futuro de las búsquedas en línea.

¿Cómo se filtró el algoritmo de Google?

La filtración constaba de aproximadamente 2.600 páginas de documentación API de Google que contenían 14.014 atributos que detallan cómo funciona el algoritmo de búsqueda de la empresa, incluidos criterios de clasificación, señales de clasificación y métricas utilizadas para evaluar la calidad de los sitios. De esta manera, los documentos, que datan de 2017 a 2023, brindan una mirada completa entre bastidores del motor de búsqueda y revelan cómo Google utiliza una variedad de factores para determinar qué sitios aparecen en los resultados de búsqueda.

¿Cuándo y cómo ocurrió la fuga?

documentos se filtraron y estuvieron disponibles en un foro en línea frecuentado por SEO y expertos en marketing digital, GitHub. El origen de la filtración fue atribuido a Erfan Azimi por Rey del micrófono, reconocido profesional SEO internacional e inicialmente se habría compartido con el ex profesional de SEO Rand Fishkin, cofundador de SparkToro, empresa especializada en investigación de audiencias.

piel de pescado publicó un artículo en el blog de la empresa, detallando la filtración del algoritmo en detalle, al igual que King, quien documentación detallada en el blog de su empresa, IPullRank y publicó un vídeo en su perfil de X (antiguo Twitter) donde Azimi explica sobre la filtración:

¿Es la documentación realmente auténtica?

Se contactó a algunos ex empleados de Google para evaluar la documentación, pero no confirmaron que tuvieran acceso a estos documentos cuando estuvieron allí. Por otro lado, el análisis general es que la información es auténtica, pero necesitaría más contexto para ser utilizada en su totalidad.

Desde el mismo punto de vista, el Google no negó la veracidad del documento, simplemente afirmando que la información está incompleta y que el algoritmo cambia constantemente.

Impacto de la fuga

La filtración del algoritmo de Google tuvo un importante impacto en el mundo del SEO, generando una serie de consecuencias:

  • Mayor transparencia: La filtración brindó a los profesionales de SEO una visión más clara de cómo funciona el algoritmo, lo que puede ayudarlos a optimizar sus sitios web de manera más efectiva. Por otro lado, se demostró que los representantes de Google llevan mucho tiempo proporcionando información falsa sobre el funcionamiento real del algoritmo.
  • Cambios de algoritmo: Además, Google anunció que constantemente se realizan cambios en el algoritmo, lo que nos lleva a creer que debemos seguir estudiando y analizando los factores de ranking.

¿Qué revela la filtración sobre el algoritmo de Google?

Los documentos filtrados revelan que el algoritmo de Google es un sistema complejo que considera una amplia gama de factores para clasificar los sitios web, incluso mayor de lo que se imaginaba anteriormente. De esta forma, muestra qué datos recopila Google de las páginas web, indicando algunos elementos que parecen más relevantes para el sistema de búsqueda.

Pero lo que más llamó la atención en la documentación fue el hecho de que las declaraciones públicas de los representantes de Google sobre el algoritmo eran en realidad diferentes de lo que se estaba viendo.

Uso de datos de Chrome:

A pesar de negarlo públicamente, los documentos indican que Google utiliza datos del navegador Chrome para evaluar la calidad de las páginas, incluido el tiempo de carga, la experiencia del usuario y el comportamiento de navegación.

CTR y tiempo:

Contrariamente a la creencia popular, las tasas de clics (CTR) y el tiempo que los usuarios pasan en una página se tienen en cuenta al clasificar los sitios web.

Firmas de los autores:

Una parte de los documentos parece mostrar que las firmas de autoría son una métrica de clasificación, algo que Google negó anteriormente, afirmando que no afectaba las clasificaciones.

Métrica de autoridad del sitio web:

Confirmando las sospechas de muchos SEO, los documentos prueban la existencia de una métrica interna de "autoridad del sitio", utilizada para determinar la clasificación de las páginas. Por lo tanto, esta métrica considera los vínculos de retroceso, la reputación y la participación de la audiencia.

Clasificadores para temas sensibles:

Los documentos filtrados indican que Google utiliza clasificadores específicos para tratar temas delicados. De esta forma, estos clasificadores se encargan de analizar el contenido de las páginas web e identificar posibles sesgos en el contenido. Según este análisis, el algoritmo puede ajustar la clasificación de los sitios teniendo en cuenta el contenido identificado, lo que genera dudas sobre la neutralidad del algoritmo de búsqueda de Google.

Listas blancas de sitios confiables:

En contraposición a la afirmación de imparcialidad, los documentos indican que Google mantiene listas de sitios "confiables" en áreas sensibles como salud y finanzas, dándoles prioridad en los resultados de búsqueda, las llamadas listas blancas.

Sandbox para sitios nuevos:

Contrariamente a las declaraciones oficiales, los documentos revelan la existencia de un "sandbox" para los nuevos sitios web, donde pueden tener dificultades para posicionarse bien inicialmente, mientras Google evalúa su calidad y confiabilidad.

NavBoost y evaluadores humanos:

El sistema "NavBoost" se utiliza para evaluar la relevancia y la calidad de los sitios web, mientras que los evaluadores humanos siguen desempeñando un papel crucial en el análisis y perfeccionamiento de los algoritmos.

Límite de páginas:

La Búsqueda de Google puede restringir la cantidad de páginas o publicaciones de un sitio web que aparecen en los resultados de búsqueda.

Contenido sin prioridad:

Los contenidos con enlaces irrelevantes, pornográficos o que generen insatisfacción en el usuario podrán ver reducida su visibilidad en los resultados de búsqueda.

Historial de versiones:

Google mantiene un historial de todas las versiones de cada página que indexa, pero sólo mira los 20 cambios más recientes al evaluar los enlaces.

Edad del sitio:

La longevidad de un sitio web en Internet (evaluada mediante el comando “hostAge”) es un factor importante en su clasificación.

Directriz EEAT:

Google ha sido, en el mejor de los casos, vago acerca de cómo se aplica la directriz EEAT (Experiencia, Experiencia, Autoridad y Confianza) a los sitios web. A pesar de afirmar que la directriz sólo tiene como objetivo mejorar la experiencia del usuario, hay evidencia de que también se utiliza para clasificar páginas.

TWIDDLERS – Ajustes del algoritmo dinámico:

Un aspecto crucial de la filtración son los “TWIDDLERS”, parámetros ajustables que permiten a Google modificar la ponderación de los factores de clasificación de forma rápida y precisa. Esto garantiza que los resultados más relevantes y de alta calidad se muestren a los usuarios en constante cambio.

¿Qué hacer a continuación?

Con la filtración del algoritmo de Google, los SEO deben adaptarse para mantenerse a la vanguardia. Algunos consejos sobre qué hacer a continuación:

  • Seguir aprendiendo: El algoritmo de Google evoluciona constantemente, por lo que es importante seguir aprendiendo sobre los últimos cambios y actualizaciones.
  • Estar al día: Es importante mantenerse al día con las últimas noticias y anuncios de Google sobre el algoritmo.
  • Centrarse en la calidad: Los SEO deben centrarse en crear contenido de alta calidad y ofrecer una buena experiencia de usuario.
  • Optimizar para dispositivos móviles: Es esencial asegurarse de que sus sitios web estén optimizados para dispositivos móviles.
  • Cree vínculos de retroceso de calidad: Concéntrese en crear vínculos de retroceso de calidad desde otros sitios de buena reputación.
  • Monitorear la clasificación: Supervise la clasificación de sus sitios en los resultados de búsqueda de Google.
  • Utilice herramientas de SEO: Hay varios herramientas de SEO disponibles que pueden ayudar a los SEO a optimizar sus sitios web para el algoritmo de Google.

Conclusión

La filtración del algoritmo de Google es un acontecimiento sin precedentes con implicaciones de gran alcance para el futuro de las búsquedas online. Los SEO deben mantenerse informados sobre los cambios en los algoritmos y adaptar sus estrategias en consecuencia. La transparencia y la comunicación abierta entre Google y la comunidad de SEO son esenciales para garantizar un futuro justo y equitativo para las búsquedas en línea.

Además de los consejos anteriores, los SEO también deben considerar lo siguiente:

  • Participe en foros y comunidades en línea: Existen varios foros y comunidades en línea donde los SEO pueden discutir el algoritmo de Google e intercambiar ideas.
  • Siga a los expertos en SEO: Hay varios expertos en SEO que publican contenidos online y ofrecen cursos y servicios de consultoría.
  • Prueba y experimenta: La mejor manera de aprender sobre el algoritmo de Google es probando y experimentando con diferentes técnicas de SEO.

Si sigue estos consejos, los SEO pueden mantenerse a la vanguardia y garantizar que sus sitios web tengan una buena clasificación en los resultados de búsqueda de Google.

Imagen: Freepik

La filtración del algoritmo de Google revela los secretos del motor de búsqueda
Etiquetado en:        
es_MX