O Google pode permitir que os sites desativem os recursos de pesquisa de IA
O Google diz que está explorando atualizações que podem permitir que sites optem especificamente por recursos de pesquisa baseados em IA.
A postagem do blog veio no mesmo dia em que a Autoridade de Concorrência e Mercados do Reino Unido abriu uma consulta sobre possíveis novos requisitos para a Pesquisa Google, incluindo controles para sites gerenciarem seu conteúdo nos recursos do Search AI.
Ron Eden, diretor de gerenciamento de produtos do Google, escreveu:
“Com base nesta estrutura e trabalhando com o ecossistema da web, estamos agora explorando atualizações em nossos controles para permitir que os sites optem especificamente por não usar os recursos de IA generativa da Pesquisa.”
O Google não forneceu cronograma, especificações técnicas ou compromisso firme. A postagem enquadra isso como uma exploração, não um roteiro de produto.
O que há de novo
Atualmente, o Google oferece vários controles sobre como o conteúdo aparece na Pesquisa, mas nenhum separa claramente os recursos de IA dos resultados tradicionais.
O Google-Extended permite que os editores bloqueiem seu conteúdo de treinar modelos Gemini e Vertex AI. Mas a documentação do Google afirma que o Google-Extended não afeta a inclusão na Pesquisa Google e não é um sinal de classificação. Ele controla o treinamento de IA, não a aparência das visões gerais da IA.
As diretivas nosnippet e max-snippet se aplicam às visões gerais de IA e ao modo AI. Mas eles também afetam os snippets tradicionais nos resultados de pesquisa regulares. Os editores que desejam limitar a exposição aos recursos de IA atualmente perdem a visibilidade dos snippets em todos os lugares.
A postagem do Google reconhece que essa lacuna existe. Éden escreveu:
“Quaisquer novos controles precisam evitar quebrar a Pesquisa de uma forma que leve a uma experiência fragmentada ou confusa para as pessoas.”
Por que isso é importante
Escrevi no e-book SEO Trends 2026 da SEJ que as pessoas teriam mais influência na direção da pesquisa do que as plataformas. A postagem do Google sugere que a dinâmica está acontecendo.
Editores e reguladores passaram o ano passado resistindo às visões gerais de IA. A Aliança de Editores Independentes do Reino Unido, a Foxglove e o Movimento por uma Web Aberta apresentaram uma reclamação ao CMA em julho passado, solicitando a possibilidade de cancelar os resumos de IA sem ser totalmente removido da pesquisa. O Departamento de Justiça dos EUA e a Comissão de Concorrência da África do Sul propuseram medidas semelhantes.
O estudo BuzzStream que cobrimos no início deste mês descobriu que 79% dos principais editores de notícias bloqueiam pelo menos um bot de treinamento de IA e 71% bloqueiam bots de recuperação que afetam as citações de IA. Os editores já estão votando com seus arquivos robots.txt.
A postagem do Google sugere que ele está respondendo à pressão do ecossistema explorando controles que anteriormente não oferecia.
Olhando para o futuro
A linguagem do Google é cautelosa. “Explorar” e “trabalhar com o ecossistema web” não são compromissos de produto.
A consulta da CMA recolherá informações sobre potenciais requisitos. Os processos regulatórios avançam lentamente, mas produzem resultados. As investigações da Lei dos Mercados Digitais da UE já levaram o Google a fazer mudanças na Europa.
Por enquanto, os editores que desejam limitar a exposição aos recursos de IA podem usar as diretivas nosnippet ou max-snippet, mas observe que elas também afetam os snippets tradicionais. A documentação da meta tag de robôs do Google cobre as opções atuais.
Se o Google seguir controles específicos de exclusão, a implementação técnica será importante. Quer seja uma nova diretiva de robôs, uma configuração do Search Console ou qualquer outra coisa, determinará o quão prático será seu uso para os editores.
Imagem em destaque: ANDRANIK HAKOBYAN/Shutterstock
