Liz Reid, do Google, afirma que LLMs desbloqueiam a indexação de áudio e vídeo

Liz Reid, do Google, afirma que LLMs desbloqueiam a indexação de áudio e vídeo


Em uma entrevista em podcast, a vice-presidente de pesquisa do Google, Liz Reid, descreveu duas maneiras pelas quais os LLMs estão mudando o que o Google pode indexar e como classifica os resultados para usuários individuais.

Reid disse ao Access Podcast que os modelos multimodais de IA agora permitem que o Google entenda o conteúdo de áudio e vídeo em um nível mais profundo do que era possível anteriormente. Ela também apontou para um futuro onde os resultados da pesquisa se adaptarão com base nas assinaturas pagas do usuário.

O que há de novo

A compreensão multimodal está expandindo o que o Google pode indexar

Reid disse que o fato de os LLMs serem multimodais abriu formatos de conteúdo que o Google anteriormente lutava para processar.

Reid disse aos anfitriões:

“A melhor coisa sobre o LLM é que eles são multimodais. Portanto, podemos realmente entender o conteúdo de áudio e o conteúdo de vídeo em um nível que não conseguíamos anos atrás.”

Ela foi além, descrevendo como o Google agora pode ir além da transcrição básica ao analisar vídeos.

“Agora você pode entender o áudio muito melhor. Agora você pode entender o vídeo muito melhor. Agora você pode entender não apenas a transcrição do vídeo, mas também sobre o que é o vídeo, qual é o estilo ou outras coisas assim.”

Reid relacionou isso a uma lacuna de longa data na forma como a pesquisa funciona para pessoas que não falam inglês. Para usuários na Índia que falam hindi ou outros idiomas, muitas vezes a web não possui as informações necessárias em seu idioma. Anteriormente, traduzir todo o conteúdo da web para todos os idiomas não era escalonável. Os LLMs mudaram isso.

“Agora, com um LLM, você pode pegar informações em um idioma, entendê-las e depois produzi-las em outro idioma. Assim, abre-se a informação.”

O Google vem caminhando nessa direção há algum tempo. Em outubro de 2025, Reid disse ao Wall Street Journal que o Google ajustou a classificação para exibir mais vídeos curtos, fóruns e conteúdo gerado por usuários.

Os comentários também adicionam contexto ao experimento de visões gerais de áudio do Google, lançado no Search Labs em junho passado, que gera resumos falados de IA dos resultados de pesquisa.

Isso não era possível há alguns anos. Em 2021, o Google e o KQED testaram se o conteúdo de áudio poderia ser pesquisável e descobriram que a precisão da fala para texto não era alta o suficiente, especialmente para nomes próprios e referências regionais. Os comentários de Reid sugerem que a barreira caiu.

A pesquisa com reconhecimento de assinatura pode mudar a forma como os resultados são personalizados

Reid também descreveu uma direção para personalização que vai além do recurso existente de Fontes Preferenciais do Google.

Ela disse aos anfitriões que o Google deseja exibir conteúdo de meios de comunicação pelos quais um usuário paga, e não resultados com acesso pago de fontes que eles não podem acessar.

“Se você ama esta fonte e tem um relacionamento com ela, então esse conteúdo deverá aparecer mais facilmente para você no Google.”

Reid deu um exemplo prático. Digamos que 20 entrevistas sobre um tópico tenham acesso pago, mas um usuário se inscreve em um canal. O Google deve tornar mais fácil encontrar aquele que eles possam ler.

“Devíamos trazer à tona aquele pelo qual eles estão pagando e não os seis aos quais eles não conseguem ter acesso.”

Ela sugeriu que a empresa “deu pequenos passos até agora, mas quer fazer mais” para fortalecer a forma como o público e as fontes confiáveis ​​se conectam por meio da pesquisa. Ela também mencionou a possibilidade de micropagamentos para artigos individuais, embora reconhecesse que esse modelo não decolou historicamente.

O Google expandiu globalmente o Preferred Sources para usuários de língua inglesa em dezembro e anunciou um recurso que destaca links de assinaturas de notícias pagas dos usuários. O Google disse que priorizaria esses links em um carrossel dedicado, começando no aplicativo Gemini, com visões gerais de IA e modo de IA a seguir. Na época, o Google disse que os usuários que escolhem uma fonte preferida clicam nesse site duas vezes mais, em média. Os comentários de Reid sugerem que a empresa vê a pesquisa com reconhecimento de assinatura como uma evolução mais ampla nessa mesma direção.

Por que isso é importante

Os recursos multimodais que Reid apontou para expandir quais formatos de conteúdo são descobertos por meio de pesquisa. Podcasts, séries de vídeos e conteúdo com prioridade em áudio têm sido historicamente mais difíceis de serem avaliados pelo Google além dos metadados e transcrições. A crescente capacidade do Google de avaliar a relevância e a profundidade do áudio e do vídeo muda diretamente quem pode ser encontrado por meio da pesquisa e como.

Para marcas e criadores que investem em formatos não textuais, a capacidade do Google de divulgar esse trabalho está alcançando onde o público já está.

A direção da personalização com reconhecimento de assinatura é importante para qualquer editor com acesso pago ou modelo de associação. Os resultados da pesquisa que se adaptam ao valor pelo qual os usuários individuais pagam estreitariam a conexão entre a retenção de assinantes e a visibilidade da pesquisa. O conteúdo com acesso pago poderia ter um desempenho melhor para o público que é mais importante para o editor, em vez de ser despriorizado porque a maioria dos usuários não consegue acessá-lo.

Olhando para o futuro

Reid não atribuiu cronogramas a nenhum dos desenvolvimentos. Os recursos de indexação multimodal sobre os quais ela falou parecem atuais, enquanto a personalização com reconhecimento de assinatura é uma direção declarada, com alguns recursos existentes já implementados.

O Google I/O está agendado para 19 a 20 de maio. Reid disse no podcast que a empresa está “construindo ativamente”, mas que o ritmo de desenvolvimento da IA ​​significa que alguns recursos podem ser reunidos ainda em abril e ainda assim chegar ao palco.


Imagem em destaque: Mawaddah F/Shutterstock



Source link

Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *