Ai Ekg disse que o ataque cardíaco – o médico diz que estava errado

Ai Ekg disse que o ataque cardíaco – o médico diz que estava errado


Uma mulher se tornou viral em Tiktok depois de afirmar que seu médico usou inteligência artificial para ler seu EKG – e a IA decidiu erroneamente ter um ataque cardíaco.

Vídeo em destaque

Meg Bitchell (@megitchell) disse que entrou para um check-up de rotina antes de perder seu seguro atual. Mas ela disse que saiu com um diagnóstico chocante.

Segundo ela, a IA que a leu ekg a sinalizou como alguém que havia sofrido um ataque cardíaco e estava “com uma saúde muito ruim”. Seu médico a encaminhou para um cardiologista para mais testes.

“Eu passivamente, por um mês, pensei que iria morrer”, disse Bitchell.

Quando ela finalmente viu o cardiologista, lhe disseram que estava “bem”. Bitchell disse que o especialista explicou que seu médico de cuidados primários havia assinado a leitura da IA ​​sem sequer olhar para o gráfico dela.

“Eles têm AI que lê os EKGs agora”, disse Bitchell, claramente frustrado.

@megitchell

Eu odeio ai eu odeio ai !!!!!!! Não é o meu tipo normal de vídeo apenas necessário para reclamar

♬ Som original – Meg Bitchell

“Eu odeio ai, eu odeio ai”, ela escreveu na legenda de seu clipe. Na sexta -feira, o vídeo havia recebido mais de 44.800 visualizações.

O problema de deixar a IA dar os tiros

A história de Bitchell não é única. Os EKGs de leitura de IA podem produzir resultados incorretos por vários motivos, incluindo baixa qualidade dos dados, qualidade de sinal inadequado ou limitações inerentes ao treinamento do algoritmo. Esses sistemas devem ajudar os médicos, não substituí-los, mas isso só funciona se o humano verificar o resultado.

Um grande problema é o viés. Se uma IA for treinada principalmente em dados de um grupo demográfico – como homens brancos -, poderá interpretar mal os EKGs de indivíduos que não se encaixam nesse perfil. Os modelos também podem lutar quando os dados que encontram no mundo real não se parecem com os dados em que foram treinados. E, diferentemente das ferramentas construídas explicitamente para a cardiologia, as IAs de uso geral como o ChatGPT não são treinadas em EKGs anotados suficientes para fazer diagnósticos confiáveis.

Na imagem corporal
Andriy Bezuglov/Adobe Stock

Mesmo quando a tecnologia é sólida, outros fatores podem tropeçar. Um paciente em movimento, um eletrodo sendo um pouco deslocado ou a interferência elétrica de outro dispositivo pode criar ruído que imita um problema cardíaco. A IA pode identificar erroneamente esses artefatos como algo sério. E como muitos modelos funcionam como uma “caixa preta”, até os médicos nem sempre podem ver como a IA chegou à sua conclusão.

O maior risco pode ser excesso de confiança humana. Se um médico assinar o que quer que o computador diga sem revisar o gráfico, os erros deslizam – assim como o que Bitchell diz que aconteceu com ela. É por isso que os especialistas recomendam o uso da IA ​​como um segundo conjunto de olhos, com um cardiologista revisando os resultados antes que um paciente seja enviado para novos testes.

Os espectadores questionam por que os médicos usariam ai

Os comentaristas ficaram chocados com o fato de um prestador de cuidados de saúde confiar na IA para ler os gráficos de um paciente. Muitos se perguntaram se isso era legal.

“Isso tem que ser negligência médica”, escreveu um usuário. “Se não for, é apenas porque as leis não alcançaram a tecnologia”.

“Deveríamos poder optar por não ter nossas informações médicas alimentadas na IA”, disse outro.

“Os algoritmos são notoriamente ruins em ler os EKGs”, acrescentou um terceiro comentarista. “É por isso que ainda treinamos humanos para lê -los.”

Outros apontaram que a IA já está sendo amplamente utilizada nos cuidados de saúde, que muitos consideram uma perspectiva aterrorizante.

“Eu tinha um uso de IA para ler o questionário na triagem do meu autismo”, compartilhou uma mulher. “Dizia que eu era alcoólatra, apesar de ter apenas uma bebida a cada três meses.”

“Acabei de me dizer um médico mais velho … que ele usa o Chatgpt para ajudá -lo nos planos de tratamento”, disse outro. “Inúmeras empresas estão aparecendo e dizendo aos médicos que não há problema em usar suas ferramentas de IA no diagnóstico agora.”

Alguns incentivaram Bitchell a tomar medidas legais sobre o que aconteceu.

“Procure o médico por negligência”, aconselhou uma pessoa.

“Sou clínico e isso é altamente problemático”, escreveu outro. “Você precisa processá -los.”

“Terno de negligência, alguém?” Um terceiro espectador perguntou.

O DOT Daily alcançou a Bitchell para obter mais informações via Tiktok.


A Internet é caótica – mas vamos dividi -la para você em um e -mail diário. Inscreva -se no boletim informativo do DOT Daily aqui.





Source link

Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *