Avanço do sistema de recomendação do Google detecta intenção semântica
O Google publicou um artigo de pesquisa sobre como ajudar os sistemas de recomendação a entender o que os usuários querem dizer quando interagem com eles. O seu objetivo com esta nova abordagem é superar as limitações inerentes aos atuais sistemas de recomendação de última geração, a fim de obter uma compreensão mais precisa e detalhada do que os utilizadores querem ler, ouvir ou ver ao nível do indivíduo.
Semântica Personalizada
Os sistemas de recomendação prevêem o que um usuário gostaria de ler ou assistir a seguir. YouTube, Google Discover e Google News são exemplos de sistemas de recomendação para recomendação de conteúdo aos usuários. Outros tipos de sistemas de recomendação são recomendações de compras.
Os sistemas de recomendação geralmente funcionam coletando dados sobre os tipos de coisas em que um usuário clica, avalia, compra e assiste e, em seguida, usa esses dados para sugerir mais conteúdo que se alinhe às preferências do usuário.
Os pesquisadores se referiram a esses tipos de sinais como feedback primitivo do usuário, porque eles não são tão bons em recomendações baseadas no julgamento subjetivo de um indivíduo sobre o que é engraçado, fofo ou chato.
A intuição por trás da pesquisa é que o surgimento dos LLMs apresenta uma oportunidade de aproveitar as interações de linguagem natural para entender melhor o que o usuário deseja por meio da identificação da intenção semântica.
Os pesquisadores explicam:
“Os sistemas de recomendação interativos surgiram como um paradigma promissor para superar as limitações do feedback primitivo do usuário usado pelos sistemas de recomendação tradicionais (por exemplo, cliques, consumo de itens, classificações). Eles permitem que os usuários expressem intenções, preferências, restrições e contextos de uma forma mais rica, muitas vezes usando linguagem natural (incluindo pesquisa facetada e diálogo).
No entanto, são necessárias mais pesquisas para encontrar as formas mais eficazes de usar esse feedback. Um desafio é inferir a intenção semântica de um usuário a partir de termos ou atributos abertos frequentemente usados para descrever um item desejado. Isto é fundamental para sistemas de recomendação que desejam apoiar os usuários no uso diário e intuitivo da linguagem natural para refinar os resultados das recomendações.”
O desafio dos atributos suaves
Os pesquisadores explicaram que atributos rígidos são algo que os sistemas de recomendação podem entender porque são verdades básicas objetivas, como “gênero, artista, diretor”. Eles tiveram problemas com outros tipos de atributos chamados “atributos suaves”, que são subjetivos e para os quais não podiam ser comparados com filmes, conteúdo ou itens de produtos.
O artigo de pesquisa afirma as seguintes características dos atributos suaves:
- “Não existe uma fonte definitiva de “verdade básica” que associe esses atributos leves a itens
- Os próprios atributos podem ter interpretações imprecisas
- E podem ser de natureza subjetiva (ou seja, diferentes usuários podem interpretá-los de maneira diferente)”
O problema dos atributos suaves é o problema que os pesquisadores se propuseram a resolver e por que o artigo de pesquisa é chamado Descobrindo Semântica Personalizada para Atributos Soft em Sistemas de Recomendação usando Vetores de Ativação de Conceito.
Novo uso de vetores de ativação de conceito (CAVs)
Vetores de ativação de conceito (CAVs) são uma forma de sondar modelos de IA para compreender as representações matemáticas (vetores) que os modelos usam internamente. Eles fornecem uma maneira para os humanos conectarem esses vetores internos aos conceitos.
Portanto, a direção padrão do CAV é a interpretação do modelo. O que os pesquisadores fizeram foi mudar essa direção para que o objetivo agora seja interpretar os usuários, traduzindo atributos subjetivos em representações matemáticas para sistemas de recomendação. Os pesquisadores descobriram que a adaptação dos CAVs para interpretar os usuários permitiu representações vetoriais que ajudaram os modelos de IA a detectar intenções sutis e julgamentos humanos subjetivos que são personalizados para um indivíduo.
Enquanto eles escrevem:
“Demonstramos… que nossa representação CAV não apenas interpreta com precisão a semântica subjetiva dos usuários, mas também pode ser usada para melhorar recomendações por meio de crítica interativa de itens.”
Por exemplo, o modelo pode aprender que os usuários querem dizer coisas diferentes com “engraçado” e ser mais capaz de aproveitar essa semântica personalizada ao fazer recomendações.
O problema que os investigadores estão a resolver é descobrir como colmatar a lacuna semântica entre a forma como os humanos falam e como os sistemas de recomendação “pensam”.
Os humanos pensam em conceitos, usando descrições vagas ou subjetivas (chamadas de atributos suaves).
Os sistemas de recomendação “pensam” em matemática: eles operam em vetores (listas de números) em um “espaço de incorporação” de alta dimensão.
O problema então é tornar o discurso humano subjetivo menos ambíguo, mas sem ter que modificar ou retreinar o sistema de recomendação com todas as nuances. Os CAVs fazem esse trabalho pesado.
Os pesquisadores explicam:
“…inferimos a semântica dos atributos flexíveis usando a representação aprendida pelo próprio modelo do sistema de recomendação.”
Eles listam quatro vantagens de sua abordagem:
“(1) A capacidade do modelo do sistema de recomendação é direcionada para prever as preferências dos itens do usuário sem tentar prever informações adicionais adicionais (por exemplo, tags), o que muitas vezes não melhora o desempenho do sistema de recomendação.
(2) O modelo do sistema de recomendação pode acomodar facilmente novos atributos sem retreinamento, caso surjam novas fontes de tags, palavras-chave ou frases das quais derivam novos atributos flexíveis.
(3) Nossa abordagem oferece um meio de testar se atributos soft específicos são relevantes para prever as preferências do usuário. Assim, podemos focar a atenção nos atributos mais relevantes para capturar a intenção de um usuário (por exemplo, ao explicar recomendações, extrair preferências ou sugerir críticas).
(4) Pode-se aprender a semântica de atributos/tags flexíveis com quantidades relativamente pequenas de dados rotulados, no espírito de pré-treinamento e aprendizado rápido.
Eles então fornecem uma explicação de alto nível de como o sistema funciona:
“Em alto nível, nossa abordagem funciona da seguinte maneira: presumimos que recebemos:
(i) um modelo de estilo de filtragem colaborativa (por exemplo, fatoração de matriz probabilística ou codificador duplo) que incorpora itens e usuários em um espaço latente com base nas classificações de itens do usuário; e
(ii) um (pequeno) conjunto de tags (ou seja, rótulos de atributos flexíveis) fornecidos por um subconjunto de usuários para um subconjunto de itens.
Desenvolvemos métodos que associam a cada item o grau em que ele apresenta um atributo soft, determinando assim a semântica desse atributo. Fazemos isso aplicando vetores de ativação de conceito (CAVs) — um método recente desenvolvido para interpretabilidade de modelos aprendidos por máquina — ao modelo de filtragem colaborativa para detectar se ele aprendeu uma representação do atributo.
A projeção deste CAV no espaço de incorporação fornece uma semântica direcional (local) para o atributo que pode então ser aplicada aos itens (e usuários). Além disso, a técnica pode ser usada para identificar a natureza subjetiva de um atributo, especificamente, se diferentes usuários têm diferentes significados (ou sentidos de tag) em mente ao usar essa tag. Essa semântica personalizada para atributos subjetivos pode ser vital para a interpretação correta da verdadeira intenção de um usuário ao tentar avaliar suas preferências.”
Este sistema funciona?
Uma das descobertas interessantes é que o teste de uma etiqueta artificial (ano ímpar) mostrou que a taxa de precisão dos sistemas estava pouco acima de uma seleção aleatória, o que corroborou a sua hipótese de que “CAVs são úteis para identificar atributos/etiquetas relacionados com preferências”.
Eles também descobriram que o uso de CAVs em sistemas de recomendação era útil para compreender o comportamento do usuário “baseado em críticas” e melhorava esses tipos de sistemas de recomendação.
Os pesquisadores listaram quatro benefícios:
“(i) utilizar uma representação de filtragem colaborativa para identificar atributos de maior relevância para a tarefa de recomendação;
(ii) distinguir o uso objetivo e subjetivo de tags;
(iii) identificar semântica personalizada e específica do usuário para atributos subjetivos; e
(iv) relacionar a semântica de atributos com representações de preferência, permitindo assim interações usando atributos/tags flexíveis em exemplos de crítica e outras formas de elicitação de preferência.
Eles descobriram que sua abordagem melhorou as recomendações para situações em que a descoberta de atributos leves é importante. Usar esta abordagem para situações em que os atributos duros são mais a norma, como na compra de produtos, é uma área de estudo futura para ver se os atributos suaves ajudariam na elaboração de recomendações de produtos.
Conclusões
O artigo de pesquisa foi publicado em 2024 e tive que pesquisar para realmente encontrá-lo, o que pode explicar por que geralmente passou despercebido na comunidade de marketing de busca.
O Google testou parte dessa abordagem com um algoritmo chamado WALS (Weighted Alternating Least Squares), código de produção real que é um produto do Google Cloud para desenvolvedores.
Duas notas em uma nota de rodapé e no apêndice explicam:
“CAVs em dados do MovieLens20M com atributos lineares usam embeddings que foram aprendidos (via WALS) usando código de produção interno, que não é liberável.”
…As incorporações lineares foram aprendidas (via WALS, Apêndice A.3.1) usando código de produção interno, que não pode ser liberado.”
“Código de produção” refere-se ao software atualmente em execução nos produtos do Google voltados para o usuário, neste caso, o Google Cloud. Provavelmente não é o mecanismo subjacente do Google Discover, mas é importante observar porque mostra como pode ser facilmente integrado a um sistema de recomendação existente.
Eles testaram esse sistema usando o conjunto de dados MovieLens20M, que é um conjunto de dados público de 20 milhões de avaliações, com alguns dos testes feitos com o mecanismo de recomendação proprietário do Google (WALS). Isso dá credibilidade à inferência de que esse código pode ser usado em um sistema ativo sem a necessidade de treiná-lo novamente ou modificá-lo.
A conclusão que vejo neste artigo de pesquisa é que isso possibilita que os sistemas de recomendação aproveitem dados semânticos sobre atributos flexíveis. O Google Discover é considerado pelo Google como um subconjunto de pesquisa, e os padrões de pesquisa são alguns dos dados que o sistema usa para exibir conteúdo. O Google não informa se está utilizando esse tipo de método, mas dados os resultados positivos, é possível que essa abordagem possa ser utilizada nos sistemas de recomendação do Google. Se for esse o caso, isso significa que as recomendações do Google podem responder melhor à semântica subjetiva dos usuários.
O artigo de pesquisa credita ao Google Research (60% dos créditos) e também à Amazon, Midjourney e Meta AI.
O PDF está disponível aqui:
Descobrindo semântica personalizada para atributos flexíveis em sistemas de recomendação usando vetores de ativação de conceito
Imagem em destaque da Shutterstock/Aqui
