Especialistas alertam contra adição de dados ao “ChatGPT Health” da OpenAI
O lançamento do ChatGPT Health pela OpenAI na semana passada levou a uma enxurrada de preocupações em torno da privacidade dos dados e do histórico do bot de dar maus conselhos. Pessoas já morreram depois de relacionamentos longos e crescentes com esses chatbots. Tratá-los como médicos especialistas parece que só pioraria o problema.
Vídeo em destaque
Os críticos dos grandes modelos de linguagem (LLMs), como o ChatGPT, acham que esta é a pior coisa que você poderia fazer com seus dados médicos.
Dr. ChatGPT quer seus dados
A empresa “AI” anunciou o ChatGPT Health em 8 de janeiro, apresentando-o como uma “experiência dedicada que reúne com segurança suas informações de saúde e a inteligência do ChatGPT”. O comunicado de imprensa argumentou que as pessoas já estão fazendo perguntas sobre a saúde do bot. Em vez de aconselhar as pessoas a não fazerem isso, isso está acontecendo.
“Você pode conectar com segurança registros médicos e aplicativos de bem-estar para fundamentar conversas em suas próprias informações de saúde, para que as respostas sejam mais relevantes e úteis para você”, afirmou OpenAI.
A empresa usou muito a palavra “seguro” e variantes, e os motivos são claros. A coleta e venda de dados é um grande impulsionador da indústria de tecnologia atualmente, e poucos críticos do LLM estão acreditando nas promessas da OpenAI.

“Então, compartilhe seus registros médicos privados com uma empresa de IA que poderá vender suas informações para quem quiser comprá-las?” @DocWhatever escreveu no X. “Para que eles possam usar suas informações de saúde para desenvolver tecnologia de saúde e treinar sua IA gratuitamente para que possam ficar ainda mais ricos?”
Outros estavam preocupados com a capacidade da OpenAI de proteger os registros dos hackers.
“TODOS OS CHAT BOTS TÊM MÁ SEGURANÇA”, gritou @TehWonderkitty. “TODOS OS CHAT BOTS PODEM SER FACILMENTE HACKEADOS. CHAT BOTS NÃO PODEM SER PROCESSADOS POR COMPARTILHAR SUAS INFORMAÇÕES PRIVADAS DE SAÚDE.”

“NÃO FAÇA ISSO.”
Quem já tentou conversar com o ChatGPT sobre saúde já está vendo problemas.
“Não confiamos em você o suficiente para tratá-lo como um adulto, mas, por favor, confie-nos seus DETALHES DE SAÚDE PESSOAL?” perguntou @Zyeine_Art. “Fui redirecionado e disseram ‘não posso continuar esta conversa’ por ter a audácia de falar sobre como minhas condições crônicas de saúde me fazem sentir.”
Apesar da reação negativa, a Anthropic anunciou sua própria versão desse horror – Claude for Healthcare.
O ChatGPT Health poderia ser um perigo para a saúde?
Essas barreiras às discussões sobre sentimentos provavelmente têm a ver com os vários processos judiciais alegando que o ChatGPT convenceu as pessoas a morrerem por suicídio. Outra mãe enlutada diz que o bot aconselhou seu filho de 18 anos sobre o uso de drogas até que ele tivesse uma overdose.
Estas tragédias, combinadas com a tendência dos LLMs de alucinar estatísticas e estudos, fazem com que os críticos emitam avisos terríveis.
“Como futuro terapeuta, devo dizer NÃO FAÇA ISSO. NUNCA”, escreveu @kkiwibin. “Temos inúmeros estudos sobre o quão ineficaz a IA é em relação à saúde humana, e isso se deve principalmente ao fato de que NÃO É UMA CONVERSA DE HUMANO PARA HUMANO.”

“A falta de segurança dos dados de registros médicos e PHI (informações pessoais de saúde) foi o motivo pelo qual deixei a tecnologia”, afirmou @melissamedinavo. “NÃO é seguro, protegido ou protegido. NÃO confie nele com sua saúde física; você viu o que isso faz com a saúde mental, certo? Os médicos são obrigados a ajudar. A IA não é.”
O CEO do Ghost, John O’Nolan, brincou que “a maior inovação aqui foi convencer os advogados a deixar isso passar”.
A Internet é caótica, mas vamos detalhar isso para você em um e-mail diário. Inscreva-se no boletim informativo do Daily Dot aqui.
