Eu me endureci contra os LLMs?
– Baldur Bjarnason
Outro dia um leitor de A Ilusão da Inteligência me enviou um breve e-mail descrevendo o que aprenderam no livro e finalizou com uma pergunta simples.
Ligeiramente parafraseado:
Seria correto dizer que suas opiniões sobre LLMs/Transformers se fortaleceram desde que você escreveu seu livro?
Minha resposta está abaixo.
Essa é uma boa pergunta.
Minha opinião sobre a tecnologia em si é praticamente a mesma de quando publiquei a primeira edição do livro. A desvantagem supera de forma bastante abrangente a vantagem e, para repetir seu próprio resumo, a tecnologia é útil apenas por pouco para um conjunto muito específico de casos de uso e, mesmo assim, você precisa tomar cuidado.
Essa ainda é a minha posição. O que está endurecido são minhas opiniões sobre a indústria de tecnologia, software, gerenciamento e membros influentes do ecossistema de desenvolvedores de software.
Isso fará mais sentido se eu explicar como têm sido os últimos anos da minha perspectiva, começando com a época em que comecei a pesquisar essa nova onda de modelos generativos.
Tenho me interessado um pouco por “IA” desde o início da minha carreira. Comecei na multimídia por volta de 2000, o que, além de esse setor ser um tanto adjacente ao desenvolvimento de jogos, fez com que eu estivesse de olho na “IA” e na geração de mídia processual desde o início dos anos 2000, embora sempre de uma perspectiva de interatividade e mídia. Há muito que perdi a maioria dos livros sobre o assunto que tinha naquela época – exceto uma cópia do livro de Norvig Paradigmas de Programação de Inteligência Artificial porque ele usava o Common LISP, que sempre pareceu divertido de manter por perto – mas isso significa que geralmente tem sido bastante simples para mim mergulhar de vez em quando e acompanhar o que o campo tem feito.
Geralmente, tenho certeza de estar na posição em que, se tivesse que usar a tecnologia atual para alguma coisa, saberia o suficiente para ser perigoso.
Portanto, eu não estava abordando modelos generativos totalmente desconhecidos da área.
O que descobri durante minha pesquisa me chocou. Esta foi uma peça de tecnologia que obviamente e aparentemente deliberadamente atuou e apoiou alguns dos piores elementos da psique humana:
- Design enganoso – jogando com antropomorfismo e preconceitos de confirmação.
- O extremismo político – isto é, um ataque total ao trabalho – está presente na base do produto.
- Um ataque direto à educação. Em vez de tentar ajudar escolas, faculdades e universidades a lidar com os problemas introduzidos pela tecnologia, todos os fornecedores pareciam (e parecem) ter a intenção de torná-la impossível chegar ao ponto em que ameaça agora abertamente os nossos sistemas educativos como um todo.
- Tanto material de agressão sexual infantil (CSAM). Muito mais do que qualquer um poderia razoavelmente esperar. Está em todos os conjuntos de dados de treinamento. Isso continua acontecendo na saída. Em pelo menos alguns casos esse parece ser o ponto. O vendedor parece querer o modelo para poder gerar esses materiais.
- Comportamento não determinístico, tornando a tecnologia inutilizável de uma perspectiva de gestão moderna.
- Inseguro em todos os níveis.
- Produção extremamente medíocre.
- Qualidade geral incrivelmente baixa, uma vez que você considera segurança, precisão e fabricações.
- Fornecedores que ignoram persistente e deliberadamente a lei, levando a inúmeras ações judiciais, algumas das quais podem ter implicações de responsabilidade para muitos usuários finais. (Veja Grok. Mesmo que você tenha estômago sociopata para ignorar as implicações éticas e morais, a prevalência de CSAM em muitas dessas plataformas expõe qualquer pessoa que as utilize à responsabilidade.)
E mais. Muito mais.
Eu exponho muito disso no livro. Algumas delas ganharam um capítulo. Algumas delas só têm um parágrafo. Mas o livro em geral expõe os riscos da tecnologia a partir da perspectiva da gestão moderna e do design de software e, no final, descrevo o ChatGPT como “o oposto de um bom software”. Tipo, não se trata apenas de software ruim, é como se eles escrevessem um inventário do que torna o software bom e então decidissem que cada entrada da lista implementaria exatamente o oposto em seu aplicativo e design de serviço.
Essa já não é uma visão “suave” da tecnologia, de forma alguma.
Mas, ao escrever o livro, sempre tentei adotar um tom o mais neutro que pude. O CSAM é obviamente ruim, então eu não deveria precisar dizer às pessoas que é muito ruim. Fabricações frequentes no trabalho de conhecimento, pesquisa e educação são muito ruins, então apontar que isso está acontecendo deveria ser suficiente, eu não deveria ter que martelar em casa por que nada disso é ruim. Nem deveria ter de adoptar um tom vulgar para tornar óbvio ao leitor que tudo isto é completamente mau.
Muitos dos que leram o livro e viram o inventário de falhas e problemas técnicos chegaram aproximadamente à mesma conclusão que você. Resumindo, parafraseando você aproximadamente (se não se importa), eles decidiram que:
Essa tecnologia só é útil para alguns casos de uso muito específicos que me interessam e, mesmo assim, apenas se eu não me importar com as falhas inevitáveis.
Acrescente a isso a ressalva de que isso só se aplica se o preço atual é mantido o que não será verdade a longo prazo.
Esta é uma conclusão racional a se chegar depois de ler um inventário de danos que inclui, entre outras coisas, fabricações difíceis de detectar e enorme insegurança de software. Era isso que eu esperava quando escrevi o livro. Não espero que todos estejam numa posição em que possam rejeitar unilateralmente o uso da tecnologia – muitas pessoas não podem arriscar os seus meios de subsistência e não sou de julgar as pessoas se essa for a sua única opção para colocar comida na mesa – mas esperava que as pessoas abandonassem o livro e os ensaios na minha newsletter com esse nível de compreensão das implicações.
Pessoalmente, minha conclusão pessoal foi que a única ferramenta utilizável que saiu disso tudo são os modelos de reconhecimento de fala e transcrição. Eles não são ótimos, você precisa editar muito a saída para torná-la utilizável, mas reduzem o trabalho de transcrição de áudio por uma margem substancial contanto que você não use o Whisper da OpenAI. O modelo da OpenAI é fabricado em suas transcrições. Até hoje, ele ainda faz merda regularmente em suas transcrições. O fato de estar sendo adotado na área da saúde em todo o mundo deveria aterrorizá-lo. Que está sendo vendido para essas indústrias sensíveis por A OpenAI, embora pareça bem ciente dessas falhas, deve fazer você questionar a integridade das pessoas que dirigem aquela empresa.
Então, modelos de transcrição: economize dinheiro, praticamente a única coisa útil (IMO) que resulta disso, desde que você não use os modelos da OpenAI. Existem algumas alternativas para seus modelos.
Sua opinião geral sobre o livro é, aproximadamente, o que eu esperava de um leitor quando o escrevi. Estou muito grato em ouvir isso.
O que eu não esperava era a reação da indústria tecnológica, dos gestores e da maioria dos jornalistas – as pessoas que impulsionam o discurso online nesta área – que leram o meu livro ou os ensaios do meu boletim informativo.
É como se eu tivesse descrito os riscos do uso de tinta com chumbo em produtos de consumo. No esboço haveria uma lista – escrita em linguagem neutra para enfatizar que se trata de uma escrita institucional e economicamente séria e não de uma escrita “séria” de especialistas – e seria quase inteiramente contras.
Alguns dos “contras” incluem, por exemplo, a tinta com chumbo que literalmente deixa as pessoas tão doentes que morrem e que são as crianças que correm maior risco.
Mas um dos poucos “prós” nesta lista hipotética seria uma breve nota, incluída para mostrar que fiz o meu trabalho de casa, dizendo que a utilização de tinta com chumbo poderia tornar a produção alguns pontos percentuais mais barata, mas que esta afirmação veio diretamente dos fornecedores e que haveria boas razões para ser céptico.
Então imagine que a maioria das reações ao artigo sobre “os riscos da tinta com chumbo” fosse: “Cinco por cento mais barato, você diz? Interessante. Preciso considerar o uso de tinta com chumbo em nossos produtos”.
Imagine que grande parte do discurso subsequente mostrasse então um completo desrespeito pelos danos, o custo em termos de miséria humana, e em vez disso usasse a peça como argumento para aumentar o uso de tinta com chumbo apenas “com mais segurança porque agora estamos conscientes dos problemas e dos perigos”.
Imagine como seria se você fosse o escritor daquela peça?
Quanto mais eu escrevia sobre modelos generativos, mais chocado ficava com a resposta da indústria, tanto aos meus escritos como aos de outros que destacavam ativamente os riscos. Poucas pessoas que têm alguma influência na tecnologia e no software parecem preocupar-se com os danos, a manipulação política, a sabotagem total da educação, a associação com o extremismo ou a literal abuso infantil.
Eles dizer eles se importam, mas continuam a apoiar e promover a máquina CSAM, a plataforma que é insegura por design, o software que é tão psicologicamente manipulador que leva as pessoas ao suicídio, e a produção generativa que é insegura e cheia de invenções em todos os níveis.
Eles dizem “ah, não”, mesmo quando continuam pressionando o botão “faça coisas horríveis com uma máquina feita por pessoas horríveis” repetidamente, só porque acham que isso aumentará sua produtividade em 5 a 10%.
Cada vez que exponho os danos em linguagem direta e neutra, a resposta da maioria da indústria – especialmente da gestão – tem sido ignorar os danos e concentrar-se nos hipotéticos benefícios não comprovados anunciados pelos fornecedores de “IA” ou nos benefícios subjetivos incrementais que eles oferecem. pensar eles estão entendendo e seriam menores mesmo se fossem verdadeiros. Quando explico em termos inequívocos quais são esses danos significarsou rotulado de extremista com opiniões linha-dura.
As empresas tecnológicas têm feito tudo o que podem para maximizar os potenciais danos dos modelos generativos porque, ao fazê-lo, pensam que estão a maximizar o seu próprio benefício pessoal. Mais uso equivale a mais lucro. Mas também equivale a mais danos.
Quando aponto isso, sou considerado um excêntrico. Estou sendo “irracional”.
Estou totalmente decepcionado com meus colegas, especialmente aqueles no desenvolvimento web, que é um campo que tem evoluído muito para os LLMs.
Portanto, minhas opiniões sobre LLMs ou Transformers não se consolidaram. Eles são praticamente os mesmos de quatro anos atrás. A tecnologia é o que é e embora os detalhes exatos variem de versão para versão, os seus problemas fundamentais permanecem praticamente os mesmos de há quatro anos.
Mas as minhas opiniões sobre a indústria tecnológica e sobre os meus pares na indústria mudaram. Eles mudaram dramaticamente.
Nunca tive grandes expectativas em relação a esse setor, mas mesmo assim ele conseguiu me decepcionar.
