Recentemente, nos Estados Unidos, um homem de 60 anos passou três semanas internado após seguir uma orientação de saúde fornecida por um chatbot de inteligência artificial.
O caso foi relatado na revista científica Annals of Internal Medicine e chamou a atenção para os riscos de usar IA como fonte única de orientação médica.
De acordo com o relatório, o homem decidiu reduzir o consumo de sal. Dessa maneira, recorreu ao ChatGPT para pedir sugestões. Entre as respostas, a IA recomendou substituir o sal de cozinha por brometo de sódio — uma substância atualmente usada como limpador de piscinas e que, no passado, foi empregada como sedativo e tratamento para dores de cabeça e epilepsia.
Ao seguir essa orientação, o homem desenvolveu bromismo, uma condição rara hoje em dia, mas que já foi comum entre os séculos 19 e 20. Os sintomas incluem psicose, alucinações, ansiedade, náusea e problemas de pele.
No início do século 20, estima-se que até 8% das internações psiquiátricas estivessem ligadas a intoxicações por brometo.
O paciente chegou ao pronto-socorro afirmando acreditar que estava sendo envenenado pelo vizinho. Em estado de confusão mental, tentou fugir do hospital e acabou sendo internado involuntariamente.
Ele precisou de tratamento com antipsicóticos até estabilizar o quadro. Antes do episódio, não havia registro de histórico de problemas mentais.
Os médicos tentaram reproduzir a busca feita pelo paciente e descobriram que o chatbot continuava sugerindo a substituição do sal por brometo de sódio, sem apresentar alertas de segurança.
O caso reforça que respostas de IA podem conter erros graves ou até inventar informações — um fenômeno conhecido como “alucinação” na área de tecnologia.
Exemplos de respostas incorretas já aconteceram com outros sistemas, como quando um chatbot do Google chegou a recomendar, de forma errada e baseada em conteúdo satírico, que as pessoas deveriam “comer pedras” para melhorar a saúde.
A OpenAI, responsável pelo ChatGPT, informou recentemente que a nova versão do seu sistema — o GPT-5 — está mais precisa em respostas médicas. Porém, a empresa reforçou que seus serviços não devem ser usados como fonte única de informação ou substituto para aconselhamento profissional.
O caso serve como alerta para que os usuários tratem respostas de inteligência artificial com cautela e sempre confirmem recomendações de saúde com um médico ou fonte confiável.
Imagem de Capa: Canva
Prepare-se para suspirar! A Netflix acaba de anunciar a estreia de French Lover, uma comédia…
O catálogo da Netflix vive adicionando novas produções, sendo poucas a conseguirem conquistar o público.…
As uvas passas são um dos alimentos mais populares em todo o mundo, apreciadas tanto…
Nos Estados Unidos, dois novos subtipos da Covid-19 vem chamando a atenção dos médicos. Conhecidas…
Recentemente, nas redes sociais, Poliana Rocha vem sendo alvo de críticas dos internautas. No programa…
Um novo medicamento bilionário vem chamando atenção por prometer mudar a forma como envelhecemos. Inicialmente…