Eu acho que “agente” pode finalmente ter um jargão muito concordado com o jargão útil agora
Eu acho que “agente” pode finalmente ter um jargão muito concordado com o jargão útil agora
18 de setembro de 2025
Percebi algo interessante nas últimas semanas: comecei a usar o termo “agente” em conversas em que não sinto a necessidade de defini -lo, revirar os olhos ou envolvê -lo em citações de medo.
Este é um grande desenvolvimento de personagens pessoais para mim!
Avançando, quando falo sobre agentes, vou usar isso:
Um agente LLM executa ferramentas em um loop para atingir uma meta.
Eu estive muito hesitante em usar o termo “agente” para comunicação significativa nos últimos dois anos. Pareceu -me como o melhor no chavão do chavão – todo mundo estava falando sobre agentes, mas se você os questionasse, todo mundo parecia ter um modelo mental diferente do que eles realmente eram.
Eu até comecei a coletar definições em minha tag de definições de agentes, incluindo o crowdsourcing 211 definições no Twitter e tentando resumir e agrupar-as com Gêmeos (eu tenho 13 grupos).
Os termos dos jargões só são úteis se você pode ter certeza de que as pessoas que você está falando compartilham a mesma definição! Se não o fizerem então a comunicação se torna menos Eficaz – você pode perder tempo discutindo apaixonadamente conceitos totalmente diferentes.
Acontece que este não é um problema novo. Em 1994 Agentes inteligentes: teoria e prática Michael Wooldridge escreveu:
Carl Hewitt comentou recentemente que a pergunta O que é um agente? é embaraçoso para a comunidade de computação baseada em agente da mesma maneira que a pergunta O que é inteligência? é embaraçoso para a comunidade de IA convencional. O problema é que, embora o termo seja amplamente utilizado, por muitas pessoas que trabalham em áreas intimamente relacionadas, ele desafia as tentativas de produzir uma única definição universalmente aceita.
Desde que os agentes não tenham uma definição comumente compartilhada, o uso do termo reduz em vez de aumentar a clareza de uma conversa.
No espaço de engenharia da IA, acho que finalmente podemos ter resolvido uma definição aceita o suficiente de que agora podemos ter conversas produtivas sobre elas.
Ferramentas em um loop para atingir uma meta
Um agente LLM executa ferramentas em um loop para atingir uma meta. Vamos quebrar isso.
A definição de “ferramentas em um loop” tem sido popular há algum tempo – em particular a antropia se estabeleceu nisso. Esse é o padrão assado em muitas APIs LLM como ferramentas ou chamadas de função – o LLM tem a capacidade de solicitar que ações sejam executadas por seu arnês, e o resultado dessas ferramentas é devolvido ao modelo para que possa continuar a raciocinar e resolver o problema fornecido.
“Atingir um objetivo” reflete que esses não são loops infinitos – há uma condição de parada.
Debatei se devo especificar “… uma meta definida por um usuário”. Decidi que essa não é uma parte necessária dessa definição: já temos padrões subagentes, onde outro LLM define a meta (consulte Claude Code e Claude Research).
Ainda existe um conjunto quase ilimitado de definições alternativas: se você conversar com pessoas fora do campo técnico de construção com LLMs, é provável que ainda encontre analogias do agente de viagens ou substituições de funcionários ou uso excitável da palavra “autônoma”. Nesses contextos, é importante esclarecer a definição que eles estão usando para ter uma conversa produtiva.
Mas, a partir de agora, se um implementador técnico me disser que está construindo um “agente”, assumirei que eles querem que eles estão ligando ferramentas para um LLM para atingir as metas usando essas ferramentas em um loop limitado.
Algumas pessoas podem insistir que os agentes tenham uma memória. O modelo “Ferramentas em um loop” tem uma forma fundamental de memória assada: essas chamadas de ferramentas são construídas como parte de uma conversa com o modelo, e as etapas anteriores nessa conversa fornecem memória de curto prazo, essencial para atingir a meta especificada atual.
Se você deseja memória de longo prazo, a maneira mais promissora de implementá-la é com um conjunto extra de ferramentas!
Agentes como substituições humanas são minha definição menos favorita
Se você conversar com pessoas de negócios não técnicas, poderá encontrar uma definição alternativa deprimente comum: agentes como substituições para a equipe humana. Isso geralmente assume a forma de “agentes de suporte ao cliente”, mas você também verá casos em que as pessoas assumem que deve haver agentes de marketing, agentes de vendas, agentes de contabilidade e muito mais.
Se alguém examina a Fortune 500 sobre sua “estratégia de agentes”, há uma boa chance de que está sendo implícito. Boa sorte recebendo uma resposta clara e distinta deles para a pergunta “O que é um agente?” no entanto!
Esta categoria de agente continua sendo ficção científica. Se sua estratégia de agente for substituir sua equipe humana por algum sistema de IA de definição difundida (provavelmente um prompt do sistema e uma coleção de ferramentas sob o capô), você ficará extremamente desapontado.
Isso porque há um recurso -chave que permanece exclusivo para a equipe humana: responsabilidade. Um humano pode assumir a responsabilidade por sua ação e aprender com seus erros. Colocar um agente de IA em um plano de melhoria de desempenho não faz sentido!
Divertido o suficiente, os humanos também têm agência. Eles podem formar seus próprios objetivos e intenções e agir de forma autônoma para alcançá -los – enquanto assumia responsabilidade por essas decisões. Apesar do nome, os agentes da IA não podem fazer nada disso.
Este lendário slide de treinamento da IBM de 1979 diz tudo o que precisamos saber:

OpenAI precisa esclarecer a história deles
A maior fonte de confusão de definição de agente que eu estou ciente é o próprio OpenAI.
O CEO da Openai, Sam Altman, gosta de chamar os agentes de “sistemas de IA que podem funcionar para você de forma independente”.
Em julho, o OpenAI lançou um recurso de produto chamado “ChatGpt Agent”, que na verdade é um sistema de automação de navegador – taggando essa opção no ChatGPT e pode iniciar um navegador da Web real e usá -lo para interagir diretamente com as páginas da Web.
E em março, o Openai lançou um SDK de agentes com bibliotecas em Python (Openai-Agents) e JavaScript (@Openai/Agents). Este é um ajuste muito mais próximo da idéia “ferramentas em um loop”.
Pode ser tarde demais para o OpenAI unificar suas definições neste momento. Vou ignorar suas várias outras definições e ficar com ferramentas em um loop!
