
Recentemente, nos Estados Unidos, um homem de 60 anos passou três semanas internado após seguir uma orientação de saúde fornecida por um chatbot de inteligência artificial.
O caso foi relatado na revista científica Annals of Internal Medicine e chamou a atenção para os riscos de usar IA como fonte única de orientação médica.
Troca perigosa: sal por produto químico tóxico
De acordo com o relatório, o homem decidiu reduzir o consumo de sal. Dessa maneira, recorreu ao ChatGPT para pedir sugestões. Entre as respostas, a IA recomendou substituir o sal de cozinha por brometo de sódio — uma substância atualmente usada como limpador de piscinas e que, no passado, foi empregada como sedativo e tratamento para dores de cabeça e epilepsia.
Ao seguir essa orientação, o homem desenvolveu bromismo, uma condição rara hoje em dia, mas que já foi comum entre os séculos 19 e 20. Os sintomas incluem psicose, alucinações, ansiedade, náusea e problemas de pele.
No início do século 20, estima-se que até 8% das internações psiquiátricas estivessem ligadas a intoxicações por brometo.
Sintomas graves e internação
O paciente chegou ao pronto-socorro afirmando acreditar que estava sendo envenenado pelo vizinho. Em estado de confusão mental, tentou fugir do hospital e acabou sendo internado involuntariamente.
Ele precisou de tratamento com antipsicóticos até estabilizar o quadro. Antes do episódio, não havia registro de histórico de problemas mentais.
Testes confirmaram resposta incorreta da IA
Os médicos tentaram reproduzir a busca feita pelo paciente e descobriram que o chatbot continuava sugerindo a substituição do sal por brometo de sódio, sem apresentar alertas de segurança.
O caso reforça que respostas de IA podem conter erros graves ou até inventar informações — um fenômeno conhecido como “alucinação” na área de tecnologia.
Exemplos de respostas incorretas já aconteceram com outros sistemas, como quando um chatbot do Google chegou a recomendar, de forma errada e baseada em conteúdo satírico, que as pessoas deveriam “comer pedras” para melhorar a saúde.
Especialistas alertam: IA não substitui médico
A OpenAI, responsável pelo ChatGPT, informou recentemente que a nova versão do seu sistema — o GPT-5 — está mais precisa em respostas médicas. Porém, a empresa reforçou que seus serviços não devem ser usados como fonte única de informação ou substituto para aconselhamento profissional.
O caso serve como alerta para que os usuários tratem respostas de inteligência artificial com cautela e sempre confirmem recomendações de saúde com um médico ou fonte confiável.
Imagem de Capa: Canva