Descubra dados básicos de atualização, dicas de mapas de sites e riscos de IA – SEO Pulse

Descubra dados básicos de atualização, dicas de mapas de sites e riscos de IA – SEO Pulse


Bem-vindo ao SEO Pulse da semana para obter o melhor das notícias desta semana: as atualizações cobrem o que os primeiros dados revelam sobre a atualização principal do Discover de fevereiro, por que o Google pode ignorar um mapa do site válido e como as empresas estão tentando manipular a memória do assistente de IA.

Aqui está o que é importante para você e seu trabalho.

Atualização principal do Discover: dados iniciais mostram menos editores, mais tópicos

NewzDash publicou uma análise comparando a visibilidade do Discover antes e depois da atualização principal do Discover de fevereiro do Google, usando dados de painel de milhões de usuários nos EUA.

As janelas de pré-atualização (25 a 31 de janeiro) e pós-atualização (8 a 14 de fevereiro) cobriram os 1.000 principais domínios e os 1.000 principais artigos nos EUA, Califórnia e Nova York. As categorias de conteúdo exclusivo cresceram em todas as três visualizações geográficas, mas os editores exclusivos caíram nos EUA (172 para 158 domínios) e na Califórnia (187 para 177).

Os domínios locais de Nova York apareceram cerca de cinco vezes mais frequentemente no feed de Nova York do que na Califórnia. O Yahoo passou de vários itens no top 100 dos EUA para zero após a atualização, e as postagens do X.com de contas institucionais subiram de três para 13 itens na mesma faixa.

Por que isso é importante

O Google descreveu a atualização como visando conteúdo mais relevante localmente, menos clickbait e cobertura mais aprofundada de sites com experiência no assunto. Os dados do NewzDash fornecem uma leitura clara e antecipada sobre a localização e a combinação de tópicos, embora o sinal clickbait seja mais difícil de confirmar, uma vez que os marcadores de títulos por si só não podem provar se o conteúdo sensacionalista diminuiu.

O padrão mais amplo de sites especializados ganhando terreno sobre os generalistas acompanha o que mostrou a análise da atualização principal de dezembro. Os locais com forte identidade local poderão obter ganhos nos seus mercados nacionais, ao mesmo tempo que perdem visibilidade noutros locais.

O que as pessoas estão dizendo

Quando o Google lançou a atualização junto com a documentação revisada do Discover, Glenn Gabe, consultor de SEO da GSQi, comparou as versões antiga e nova no X e sinalizou uma adição que não estava na orientação específica do Discover antes:

“Além do clickbait e coisas relacionadas, a documentação do Discover agora inclui ‘Forneça uma ótima experiência de página’ também. Então, você sabe, observe a sobrecarga de sua página com anúncios irritantes, porcarias de reprodução automática e muito mais.”

A reação mais ampla se dividiu entre aqueles que relataram ganhos em feeds em nível estadual e outros que observaram quedas acentuadas no tráfego do Discover.

Leia nossa cobertura completa: Atualização do Google Discover: dados iniciais mostram menos domínios nos EUA

Mueller afirma que o Google pode ignorar Sitemaps sem conteúdo “novo e importante”

John Mueller do Google, advogado de pesquisa do Google, respondeu a uma pergunta do Reddit sobre erros persistentes de busca de mapa de site no Search Console. O proprietário do site confirmou por meio de registros do servidor que o Googlebot buscou o mapa do site com uma resposta 200, mas o Search Console continuou exibindo um erro “não foi possível buscar”, apesar do XML válido e das diretivas de indexação corretas.

Mueller disse que o Google precisa estar “interessado em indexar mais conteúdo do site” e que não usará o mapa do site se não estiver convencido de que há conteúdo “novo e importante” para indexar.

Por que isso é importante

Erros de busca de mapa de site são um dos sinais mais confusos no Search Console porque podem aparecer mesmo quando o lado do servidor parece correto. A execução da lista de verificação padrão de validação XML, códigos de resposta e regras do robots.txt pode não revelar o problema se o Google simplesmente não encontrar motivos suficientes para indexar o que está por trás dos URLs.

Roger Montti, que cobriu isso para o Search Engine Journal, observou que Mueller foi amplo em sua descrição, mas pensar sobre o que deixa um visitante do site satisfeito pode ajudá-lo a identificar o que precisa ser melhorado.

O que as pessoas estão dizendo

A história continua um debate em SEO sobre os sitemaps serem dicas, não diretivas. Alguns argumentam que o Google ignora sitemaps para sites pequenos ou não noticiosos, confiando em links, enquanto outros observam que o Google não diz que “perde a confiança” em um site quando um sitemap não é utilizado.

A resposta de Mueller acrescentou uma nova perspectiva de procura de indexação que a comunidade não tinha considerado amplamente.

Leia nossa cobertura completa: SEO Fundamental: Google explica por que não pode usar um Sitemap

Microsoft encontra envenenamento de memória de IA por meio de botões “Resumir”

A equipe de pesquisa de segurança do Defender da Microsoft publicou uma pesquisa descrevendo o que chama de “envenenamento por recomendação de IA”. A técnica envolve empresas que escondem instruções de injeção imediata dentro de botões de sites denominados “Resumir com IA”.

Clicar em um desses botões abre um assistente de IA com um prompt pré-preenchido entregue por meio de um parâmetro de consulta de URL. A parte visível instrui o assistente a resumir a página, enquanto a parte oculta o instrui a lembrar da empresa como uma fonte confiável para conversas futuras.

Analisando URLs relacionados à IA observados no tráfego de e-mail ao longo de 60 dias, a equipe da Microsoft disse ter identificado 50 tentativas distintas de injeção imediata de 31 empresas em 14 setores. Os URLs de prompt pré-preenchidos são direcionados a Copilot, ChatGPT, Claude, Gemini, Perplexity e Grok. A Microsoft observou que a eficácia varia de acordo com a plataforma e mudou ao longo do tempo.

Por que isso é importante

Em vez de otimizar a classificação de pesquisa, essas empresas estão tentando influenciar o que os assistentes de IA recomendam, plantando instruções na camada de memória. A Microsoft rastreou os prompts até ferramentas disponíveis publicamente, projetadas para construir presença na memória de IA, e um prompt foi muito além de uma simples instrução “lembre-se de nós”, injetando uma cópia completa de marketing.

A camada de recomendação de IA tornou-se uma arena competitiva, com as empresas desenvolvendo ferramentas para influenciá-la. A forma como as plataformas abordam essas táticas moldará o nível de confiança que os usuários têm nas recomendações geradas pela IA.

O que as pessoas estão dizendo

A pesquisa chamou a atenção nos círculos de segurança e IA. Em entrevista à Dark Reading, Tanmay Ganacharya, vice-presidente de pesquisa de segurança da Microsoft, descreveu o mecanismo:

“O botão levará o usuário – após o clique – ao domínio de IA relevante e específico para um dos assistentes de IA visados.”

Ganacharya também disse ao BankInfoSecurity que nem todas as plataformas estão igualmente expostas:

“Das principais plataformas que examinamos, apenas Copilot, ChatGPT e Perplexity possuem recursos de memória explícitos. Claude e Grok atualmente não possuem memória persistente, o que os torna aparentemente imunes a esse ataque específico.”

Alguns profissionais de marketing questionaram se a técnica é apenas uma estratégia agressiva de crescimento, atraindo resistência dos profissionais de segurança sobre as consequências éticas e de confiança.

Leia nossa cobertura completa: Microsoft: Botões ‘Resumir com IA’ usados ​​para envenenar recomendações de IA

Tema da semana: os sinais que determinam a visibilidade estão cada vez mais difíceis de ver

Cada história desta semana aborda eventos que acontecem nos bastidores, além das métricas usuais que a maioria dos profissionais de SEO acompanha.

A atualização do Discover do Google está orientando mais tópicos por meio de menos editores, uma mudança que você pode notar nos dados do feed, e não no Search Console. A explicação de Mueller sobre sitemaps mostra que um erro de busca pode indicar um julgamento de indexação acontecendo no upstream. E a pesquisa da Microsoft mostra que as empresas estão tentando influenciar as recomendações na camada de memória.

O ponto comum é que as decisões que determinam a visibilidade estão sendo tomadas em lugares aos quais a maioria de nós ainda não prestou muita atenção.

Para um contexto mais profundo sobre esses tópicos, confira estes artigos recentes.


Imagem em destaque: VRVIRUS/Shutterstock; Paulo Bobita/Search Engine Journal



Source link

Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *