Google algorithm leak reveals search engine secrets
Getting your Trinity Audio player ready...

Em 27 de maio de 2024, foi confirmado um vazamento sem precedentes que sacudiu o mundo do SEO (Search Engine Optimization): milhares de páginas de documentos internos do Google contendo detalhes sobre o algoritmo de busca da empresa foram divulgados online. Esse evento histórico, apelidado de “Vazamento do Algoritmo do Google”, expôs segredos há muito guardados sobre o funcionamento da ferramenta de busca mais popular do mundo e gerou um turbilhão de questionamentos sobre o futuro da pesquisa online.

Como foi o vazamento do algoritmo do Google?

O vazamento consistiu em aproximadamente 2.600 páginas de documentações de API do Google contendo 14.014 atributos que detalham o funcionamento do algoritmo de busca da empresa, incluindo critérios de classificação, sinais de ranqueamento e métricas utilizadas para avaliar a qualidade dos sites. Desse modo, os documentos, que datam de 2017 a 2023, fornecem uma visão abrangente dos bastidores da ferramenta de busca e revelam como o Google utiliza uma variedade de fatores para determinar quais sites aparecem nos resultados de pesquisa.

Quando e como o vazamento aconteceu?

You documentos foram vazados e disponibilizados em um fórum online frequentado por SEOs e especialistas em marketing digital, o GitHub. A origem do vazamento foi atribuída a Erfan Azimi por Mic King, profissional renomado de SEO internacional e teria sido, inicialmente, compartilhada com o ex-profissional de SEO Rand Fishkin, co-fundador da SparkToro, empresa especializada em pesquisa de audiência.

Fishkin publicou um artigo no blog da empresa, detalhando o vazamento do algoritmo em detalhes, assim como King, que detalhou a documentação no blog de sua empresa, a IPullRank e postou em seu perfil do X (ex-Twitter), um vídeo onde Azimi explica sobre o vazamento:

A documentação é realmente autêntica?

Alguns ex-funcionários do Google foram procurados para avaliar a documentação, mas não confirmaram que tiveram acesso a esses documentos quando ali estavam. Por outro lado, a análise geral é que as informações são autênticas, mas que precisariam de mais contexto para serem utilizadas em sua totalidade.

Sob o mesmo ponto de vista, o Google não negou a veracidade do documento, apenas posicionando-se que as informações são incompletas e que o algoritmo encontra-se constantemente em mudança.

Impacto do vazamento

O vazamento do algoritmo do Google teve um impacto significativo no mundo do SEO, gerando uma série de consequências:

  • Maior transparência: O vazamento forneceu aos profissionais de SEO uma visão mais clara de como o algoritmo funciona, o que pode ajudá-los a otimizar seus sites de forma mais eficaz. Por outro lado, mostrou que há muito tempo os representantes do Google fornecem informações inverídicas sobre o real funcionamento do algoritmo.
  • Mudanças no algoritmo: Além disso, o Google anunciou que são feitas mudanças no algoritmo constantemente, o que nos leva a crer que devemos continuar estudando e analisando os fatores de rankeamento.

O que o vazamento revela sobre o algoritmo do Google?

Os documentos vazados revelam que o algoritmo do Google é um sistema complexo que considera uma ampla gama de fatores para classificar os sites, maior ainda do que se imaginava. Desse modo, mostra quais dados o Google coleta das páginas da web, indicando alguns itens que parecem ser mais relevantes para o sistema de buscas.

Mas o que mais chamou a atenção na documentação foi o fato das declarações públicas dos representantes do Google sobre o algoritmo serem realmente diferentes do que está sendo visto.

Uso de dados do Chrome:

Apesar de negar publicamente, os documentos indicam que o Google utiliza dados do navegador Chrome para avaliar a qualidade das páginas, incluindo tempo de carregamento, experiência do usuário e comportamento de navegação.

CTR e tempo:

Diferentemente do que se pensava, as taxas de clique (CTR) e o tempo que os usuários passam em uma página são sim levados em consideração para ranquear sites.

Assinaturas de autoria:

Uma parte dos documentos parece mostrar que as assinaturas de autoria são uma métrica de classificação, o que era negado pelo Google anteriormente, que afirmava não impactar nas classificações.

Métrica de autoridade do site:

Confirmando as suspeitas de muitos SEOs, os documentos comprovam a existência de uma métrica interna de “autoridade do site”, utilizada para determinar o ranqueamento das páginas. Assim, essa métrica considera backlinks, reputação e engajamento do público.

Classificadores para temas sensíveis:

Os documentos vazados indicam que o Google utiliza classificadores específicos para lidar com temas sensíveis. Dessa forma, esses classificadores são responsáveis por analisar o conteúdo das páginas da web e identificar possíveis vieses no conteúdo. A partir dessa análise, o algoritmo pode ajustar a classificação dos sites, levando em consideração o teor identificado, o que levanta preocupações sobre a neutralidade do algoritmo de busca do Google.

Listas brancas de sites confiáveis:

Em contraste com a alegação de imparcialidade, os documentos indicam que o Google mantém listas de sites “confiáveis” em áreas sensíveis como saúde e finanças, priorizando-os nos resultados de busca, as chamadas whitelists.

Sandbox para sites novos:

Ao contrário das declarações oficiais, os documentos revelam a existência de um “sandbox” para novos sites, onde estes podem ter dificuldade em ranquear bem inicialmente, enquanto o Google avalia sua qualidade e confiabilidade.

NavBoost e avaliadores humanos:

O sistema “NavBoost” é utilizado para avaliar a relevância e qualidade dos sites, enquanto avaliadores humanos ainda desempenham um papel crucial na análise e refinamento dos algoritmos.

Limite de páginas:

O Google Search pode restringir o número de páginas ou posts de um site que aparecem nos resultados da pesquisa.

Conteúdo despriorizado:

Conteúdos com links irrelevantes, pornografia ou que geram insatisfação do usuário podem ter sua visibilidade reduzida nos resultados da pesquisa.

Histórico de versões:

O Google mantém um histórico de todas as versões de cada página indexada, mas analisa apenas as 20 alterações mais recentes ao avaliar links.

Idade do site:

A longevidade de um site na internet (avaliada pelo comando “hostAge”) é um fator importante para o seu ranqueamento.

Diretriz EEAT:

O Google foi, no mínimo, vago sobre como a diretriz EEAT (Experiência, Especialização, Autoridade e Confiabilidade) se aplica a sites. Apesar de afirmar que a diretriz visa apenas melhorar a experiência do usuário, há indícios de que ela também é usada para ranquear páginas.

TWIDDLERS – Ajustes Dinâmicos do Algoritmo:

Um aspecto crucial do vazamento são os “TWIDDLERS”, parâmetros ajustáveis que permitem ao Google modificar a ponderação dos fatores de ranqueamento de forma rápida e precisa. Isso garante que os resultados mais relevantes e de alta qualidade sejam exibidos aos usuários em constante mudança.

O que fazer a seguir?

Com o vazamento do algoritmo do Google, os SEOs precisam se adaptar para se manterem à frente da curva. Algumas dicas para o que fazer a seguir:

  • Continue aprendendo: O algoritmo do Google está em constante evolução, por isso é importante continuar aprendendo sobre as últimas mudanças e atualizações.
  • Mantenha-se atualizado: É importante acompanhar as últimas notícias e anúncios do Google sobre o algoritmo.
  • Focar na qualidade: Os SEOs devem se concentrar em criar conteúdo de alta qualidade e oferecer uma boa experiência do usuário.
  • Otimizar para dispositivos móveis: É essencial garantir que seus sites sejam otimizados para dispositivos móveis.
  • Construir backlinks de qualidade: Concentre-se em construir backlinks de qualidade de outros sites confiáveis.
  • Monitorar o ranking: Monitore o ranking de seus sites nos resultados de pesquisa do Google.
  • Usar ferramentas de SEO: Existem diversas ferramentas de SEO disponíveis que podem ajudar os SEOs a otimizar seus sites para o algoritmo do Google.

Conclusion

O vazamento do algoritmo do Google é um evento sem precedentes com implicações de longo alcance para o futuro da pesquisa online. Os SEOs precisam se manter informados sobre as mudanças no algoritmo e adaptar suas estratégias de acordo. A transparência e a comunicação aberta entre o Google e a comunidade SEO são essenciais para garantir um futuro justo e equitativo para a pesquisa online.

Além das dicas acima, os SEOs também devem considerar o seguinte:

  • Participar de fóruns e comunidades online: Existem diversos fóruns e comunidades online onde os SEOs podem discutir o algoritmo do Google e trocar ideias.
  • Seguir especialistas em SEO: Existem diversos especialistas em SEO que publicam conteúdo online e oferecem cursos e serviços de consultoria.
  • Testar e experimentar: A melhor maneira de aprender sobre o algoritmo do Google é testando e experimentando diferentes técnicas de SEO.

Ao seguir essas dicas, os SEOs podem se manter à frente da curva e garantir que seus sites tenham uma boa classificação nos resultados de pesquisa do Google.

Image: Freepik

Google algorithm leak reveals search engine secrets
Tagged on:         
en_US