Especialistas alertam contra adição de dados ao “ChatGPT Health” da OpenAI

Especialistas alertam contra adição de dados ao “ChatGPT Health” da OpenAI


O lançamento do ChatGPT Health pela OpenAI na semana passada levou a uma enxurrada de preocupações em torno da privacidade dos dados e do histórico do bot de dar maus conselhos. Pessoas já morreram depois de relacionamentos longos e crescentes com esses chatbots. Tratá-los como médicos especialistas parece que só pioraria o problema.

Vídeo em destaque

Os críticos dos grandes modelos de linguagem (LLMs), como o ChatGPT, acham que esta é a pior coisa que você poderia fazer com seus dados médicos.

Dr. ChatGPT quer seus dados

A empresa “AI” anunciou o ChatGPT Health em 8 de janeiro, apresentando-o como uma “experiência dedicada que reúne com segurança suas informações de saúde e a inteligência do ChatGPT”. O comunicado de imprensa argumentou que as pessoas já estão fazendo perguntas sobre a saúde do bot. Em vez de aconselhar as pessoas a não fazerem isso, isso está acontecendo.

“Você pode conectar com segurança registros médicos e aplicativos de bem-estar para fundamentar conversas em suas próprias informações de saúde, para que as respostas sejam mais relevantes e úteis para você”, afirmou OpenAI.

A empresa usou muito a palavra “seguro” e variantes, e os motivos são claros. A coleta e venda de dados é um grande impulsionador da indústria de tecnologia atualmente, e poucos críticos do LLM estão acreditando nas promessas da OpenAI.

Tweet lendo 'Entããão, compartilhe seus registros médicos privados com uma empresa de IA que pode então vender suas informações para quem quiser comprá-las? Para que eles possam usar suas informações de saúde para desenvolver tecnologia de saúde e treinar sua IA gratuitamente para ficarem ainda mais ricos?'
@DocWhatever/X

“Então, compartilhe seus registros médicos privados com uma empresa de IA que poderá vender suas informações para quem quiser comprá-las?” @DocWhatever escreveu no X. “Para que eles possam usar suas informações de saúde para desenvolver tecnologia de saúde e treinar sua IA gratuitamente para que possam ficar ainda mais ricos?”

Outros estavam preocupados com a capacidade da OpenAI de proteger os registros dos hackers.

“TODOS OS CHAT BOTS TÊM MÁ SEGURANÇA”, gritou @TehWonderkitty. “TODOS OS CHAT BOTS PODEM SER FACILMENTE HACKEADOS. CHAT BOTS NÃO PODEM SER PROCESSADOS POR COMPARTILHAR SUAS INFORMAÇÕES PRIVADAS DE SAÚDE.”

Tweet lendo 'TODOS OS CHAT BOTS TÊM MÁ SEGURANÇA TODOS OS CHAT BOTS PODEM SER FACILMENTE HACKEADOS CHAT BOTS NÃO PODEM SER PROCESSADOS POR COMPARTILHAR SUAS INFORMAÇÕES DE SAÚDE PRIVADA NÃO FAÇA ISSO'
@TehWonderkitty/X

“NÃO FAÇA ISSO.”

Quem já tentou conversar com o ChatGPT sobre saúde já está vendo problemas.

“Não confiamos em você o suficiente para tratá-lo como um adulto, mas, por favor, confie-nos seus DETALHES DE SAÚDE PESSOAL?” perguntou @Zyeine_Art. “Fui redirecionado e disseram ‘não posso continuar esta conversa’ por ter a audácia de falar sobre como minhas condições crônicas de saúde me fazem sentir.”

Apesar da reação negativa, a Anthropic anunciou sua própria versão desse horror – Claude for Healthcare.

O ChatGPT Health poderia ser um perigo para a saúde?

Essas barreiras às discussões sobre sentimentos provavelmente têm a ver com os vários processos judiciais alegando que o ChatGPT convenceu as pessoas a morrerem por suicídio. Outra mãe enlutada diz que o bot aconselhou seu filho de 18 anos sobre o uso de drogas até que ele tivesse uma overdose.

Estas tragédias, combinadas com a tendência dos LLMs de alucinar estatísticas e estudos, fazem com que os críticos emitam avisos terríveis.

“Como futuro terapeuta, devo dizer NÃO FAÇA ISSO. NUNCA”, escreveu @kkiwibin. “Temos inúmeros estudos sobre o quão ineficaz a IA é em relação à saúde humana, e isso se deve principalmente ao fato de que NÃO É UMA CONVERSA DE HUMANO PARA HUMANO.”

Lendo o tweet 'A falta de segurança dos dados de registros médicos e PHI (informações pessoais de saúde) foi o motivo pelo qual deixei a tecnologia. NÃO é seguro, protegido ou protegido. NÃO confie na sua saúde física, você viu o que isso faz com a saúde mental, certo? Os médicos são obrigados a ajudar. IA não é.
@melissamedinavo/X

“A falta de segurança dos dados de registros médicos e PHI (informações pessoais de saúde) foi o motivo pelo qual deixei a tecnologia”, afirmou @melissamedinavo. “NÃO é seguro, protegido ou protegido. NÃO confie nele com sua saúde física; você viu o que isso faz com a saúde mental, certo? Os médicos são obrigados a ajudar. A IA não é.”

O CEO do Ghost, John O’Nolan, brincou que “a maior inovação aqui foi convencer os advogados a deixar isso passar”.


A Internet é caótica, mas vamos detalhar isso para você em um e-mail diário. Inscreva-se no boletim informativo do Daily Dot aqui.



Source link

Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *