Vazamento do algoritmo do Google revela segredos da ferramenta de busca
Getting your Trinity Audio player ready...

Em 27 de maio de 2024, foi confirmado um vazamento sem precedentes que sacudiu o mundo do SEO (Search Engine Optimization): milhares de páginas de documentos internos do Google contendo detalhes sobre o algoritmo de busca da empresa foram divulgados online. Esse evento histórico, apelidado de “Vazamento do Algoritmo do Google”, expôs segredos há muito guardados sobre o funcionamento da ferramenta de busca mais popular do mundo e gerou um turbilhão de questionamentos sobre o futuro da pesquisa online.

Como foi o vazamento do algoritmo do Google?

O vazamento consistiu em aproximadamente 2.600 páginas de documentações de API do Google contendo 14.014 atributos que detalham o funcionamento do algoritmo de busca da empresa, incluindo critérios de classificação, sinais de ranqueamento e métricas utilizadas para avaliar a qualidade dos sites. Desse modo, os documentos, que datam de 2017 a 2023, fornecem uma visão abrangente dos bastidores da ferramenta de busca e revelam como o Google utiliza uma variedade de fatores para determinar quais sites aparecem nos resultados de pesquisa.

Quando e como o vazamento aconteceu?

Os documentos foram vazados e disponibilizados em um fórum online frequentado por SEOs e especialistas em marketing digital, o GitHub. A origem do vazamento foi atribuída a Erfan Azimi por Mic King, profissional renomado de SEO internacional e teria sido, inicialmente, compartilhada com o ex-profissional de SEO Rand Fishkin, co-fundador da SparkToro, empresa especializada em pesquisa de audiência.

Fishkin publicou um artigo no blog da empresa, detalhando o vazamento do algoritmo em detalhes, assim como King, que detalhou a documentação no blog de sua empresa, a IPullRank e postou em seu perfil do X (ex-Twitter), um vídeo onde Azimi explica sobre o vazamento:

A documentação é realmente autêntica?

Alguns ex-funcionários do Google foram procurados para avaliar a documentação, mas não confirmaram que tiveram acesso a esses documentos quando ali estavam. Por outro lado, a análise geral é que as informações são autênticas, mas que precisariam de mais contexto para serem utilizadas em sua totalidade.

Sob o mesmo ponto de vista, o Google não negou a veracidade do documento, apenas posicionando-se que as informações são incompletas e que o algoritmo encontra-se constantemente em mudança.

Impacto do vazamento

O vazamento do algoritmo do Google teve um impacto significativo no mundo do SEO, gerando uma série de consequências:

  • Maior transparência: O vazamento forneceu aos profissionais de SEO uma visão mais clara de como o algoritmo funciona, o que pode ajudá-los a otimizar seus sites de forma mais eficaz. Por outro lado, mostrou que há muito tempo os representantes do Google fornecem informações inverídicas sobre o real funcionamento do algoritmo.
  • Mudanças no algoritmo: Além disso, o Google anunciou que são feitas mudanças no algoritmo constantemente, o que nos leva a crer que devemos continuar estudando e analisando os fatores de rankeamento.

O que o vazamento revela sobre o algoritmo do Google?

Os documentos vazados revelam que o algoritmo do Google é um sistema complexo que considera uma ampla gama de fatores para classificar os sites, maior ainda do que se imaginava. Desse modo, mostra quais dados o Google coleta das páginas da web, indicando alguns itens que parecem ser mais relevantes para o sistema de buscas.

Mas o que mais chamou a atenção na documentação foi o fato das declarações públicas dos representantes do Google sobre o algoritmo serem realmente diferentes do que está sendo visto.

Uso de dados do Chrome:

Apesar de negar publicamente, os documentos indicam que o Google utiliza dados do navegador Chrome para avaliar a qualidade das páginas, incluindo tempo de carregamento, experiência do usuário e comportamento de navegação.

CTR e tempo:

Diferentemente do que se pensava, as taxas de clique (CTR) e o tempo que os usuários passam em uma página são sim levados em consideração para ranquear sites.

Assinaturas de autoria:

Uma parte dos documentos parece mostrar que as assinaturas de autoria são uma métrica de classificação, o que era negado pelo Google anteriormente, que afirmava não impactar nas classificações.

Métrica de autoridade do site:

Confirmando as suspeitas de muitos SEOs, os documentos comprovam a existência de uma métrica interna de “autoridade do site”, utilizada para determinar o ranqueamento das páginas. Assim, essa métrica considera backlinks, reputação e engajamento do público.

Classificadores para temas sensíveis:

Os documentos vazados indicam que o Google utiliza classificadores específicos para lidar com temas sensíveis. Dessa forma, esses classificadores são responsáveis por analisar o conteúdo das páginas da web e identificar possíveis vieses no conteúdo. A partir dessa análise, o algoritmo pode ajustar a classificação dos sites, levando em consideração o teor identificado, o que levanta preocupações sobre a neutralidade do algoritmo de busca do Google.

Listas brancas de sites confiáveis:

Em contraste com a alegação de imparcialidade, os documentos indicam que o Google mantém listas de sites “confiáveis” em áreas sensíveis como saúde e finanças, priorizando-os nos resultados de busca, as chamadas whitelists.

Sandbox para sites novos:

Ao contrário das declarações oficiais, os documentos revelam a existência de um “sandbox” para novos sites, onde estes podem ter dificuldade em ranquear bem inicialmente, enquanto o Google avalia sua qualidade e confiabilidade.

NavBoost e avaliadores humanos:

O sistema “NavBoost” é utilizado para avaliar a relevância e qualidade dos sites, enquanto avaliadores humanos ainda desempenham um papel crucial na análise e refinamento dos algoritmos.

Limite de páginas:

O Google Search pode restringir o número de páginas ou posts de um site que aparecem nos resultados da pesquisa.

Conteúdo despriorizado:

Conteúdos com links irrelevantes, pornografia ou que geram insatisfação do usuário podem ter sua visibilidade reduzida nos resultados da pesquisa.

Histórico de versões:

O Google mantém um histórico de todas as versões de cada página indexada, mas analisa apenas as 20 alterações mais recentes ao avaliar links.

Idade do site:

A longevidade de um site na internet (avaliada pelo comando “hostAge”) é um fator importante para o seu ranqueamento.

Diretriz EEAT:

O Google foi, no mínimo, vago sobre como a diretriz EEAT (Experiência, Especialização, Autoridade e Confiabilidade) se aplica a sites. Apesar de afirmar que a diretriz visa apenas melhorar a experiência do usuário, há indícios de que ela também é usada para ranquear páginas.

TWIDDLERS – Ajustes Dinâmicos do Algoritmo:

Um aspecto crucial do vazamento são os “TWIDDLERS”, parâmetros ajustáveis que permitem ao Google modificar a ponderação dos fatores de ranqueamento de forma rápida e precisa. Isso garante que os resultados mais relevantes e de alta qualidade sejam exibidos aos usuários em constante mudança.

O que fazer a seguir?

Com o vazamento do algoritmo do Google, os SEOs precisam se adaptar para se manterem à frente da curva. Algumas dicas para o que fazer a seguir:

  • Continue aprendendo: O algoritmo do Google está em constante evolução, por isso é importante continuar aprendendo sobre as últimas mudanças e atualizações.
  • Mantenha-se atualizado: É importante acompanhar as últimas notícias e anúncios do Google sobre o algoritmo.
  • Focar na qualidade: Os SEOs devem se concentrar em criar conteúdo de alta qualidade e oferecer uma boa experiência do usuário.
  • Otimizar para dispositivos móveis: É essencial garantir que seus sites sejam otimizados para dispositivos móveis.
  • Construir backlinks de qualidade: Concentre-se em construir backlinks de qualidade de outros sites confiáveis.
  • Monitorar o ranking: Monitore o ranking de seus sites nos resultados de pesquisa do Google.
  • Usar ferramentas de SEO: Existem diversas ferramentas de SEO disponíveis que podem ajudar os SEOs a otimizar seus sites para o algoritmo do Google.

Conclusão

O vazamento do algoritmo do Google é um evento sem precedentes com implicações de longo alcance para o futuro da pesquisa online. Os SEOs precisam se manter informados sobre as mudanças no algoritmo e adaptar suas estratégias de acordo. A transparência e a comunicação aberta entre o Google e a comunidade SEO são essenciais para garantir um futuro justo e equitativo para a pesquisa online.

Além das dicas acima, os SEOs também devem considerar o seguinte:

  • Participar de fóruns e comunidades online: Existem diversos fóruns e comunidades online onde os SEOs podem discutir o algoritmo do Google e trocar ideias.
  • Seguir especialistas em SEO: Existem diversos especialistas em SEO que publicam conteúdo online e oferecem cursos e serviços de consultoria.
  • Testar e experimentar: A melhor maneira de aprender sobre o algoritmo do Google é testando e experimentando diferentes técnicas de SEO.

Ao seguir essas dicas, os SEOs podem se manter à frente da curva e garantir que seus sites tenham uma boa classificação nos resultados de pesquisa do Google.

Imagem: Freepik

Vazamento do algoritmo do Google revela segredos da ferramenta de busca
Tags:         
pt_BR