Interessante

Homem passa 3 semanas internado após seguir conselho médico errado dado pelo ChatGPT

Recentemente, nos Estados Unidos, um homem de 60 anos passou três semanas internado após seguir uma orientação de saúde fornecida por um chatbot de inteligência artificial.

O caso foi relatado na revista científica Annals of Internal Medicine e chamou a atenção para os riscos de usar IA como fonte única de orientação médica.

Troca perigosa: sal por produto químico tóxico

De acordo com o relatório, o homem decidiu reduzir o consumo de sal. Dessa maneira, recorreu ao ChatGPT para pedir sugestões. Entre as respostas, a IA recomendou substituir o sal de cozinha por brometo de sódio — uma substância atualmente usada como limpador de piscinas e que, no passado, foi empregada como sedativo e tratamento para dores de cabeça e epilepsia.

Ao seguir essa orientação, o homem desenvolveu bromismo, uma condição rara hoje em dia, mas que já foi comum entre os séculos 19 e 20. Os sintomas incluem psicose, alucinações, ansiedade, náusea e problemas de pele.

No início do século 20, estima-se que até 8% das internações psiquiátricas estivessem ligadas a intoxicações por brometo.

Sintomas graves e internação

O paciente chegou ao pronto-socorro afirmando acreditar que estava sendo envenenado pelo vizinho. Em estado de confusão mental, tentou fugir do hospital e acabou sendo internado involuntariamente.

Ele precisou de tratamento com antipsicóticos até estabilizar o quadro. Antes do episódio, não havia registro de histórico de problemas mentais.

Testes confirmaram resposta incorreta da IA

Os médicos tentaram reproduzir a busca feita pelo paciente e descobriram que o chatbot continuava sugerindo a substituição do sal por brometo de sódio, sem apresentar alertas de segurança.

O caso reforça que respostas de IA podem conter erros graves ou até inventar informações — um fenômeno conhecido como “alucinação” na área de tecnologia.

Exemplos de respostas incorretas já aconteceram com outros sistemas, como quando um chatbot do Google chegou a recomendar, de forma errada e baseada em conteúdo satírico, que as pessoas deveriam “comer pedras” para melhorar a saúde.

Especialistas alertam: IA não substitui médico

A OpenAI, responsável pelo ChatGPT, informou recentemente que a nova versão do seu sistema — o GPT-5 — está mais precisa em respostas médicas. Porém, a empresa reforçou que seus serviços não devem ser usados como fonte única de informação ou substituto para aconselhamento profissional.

O caso serve como alerta para que os usuários tratem respostas de inteligência artificial com cautela e sempre confirmem recomendações de saúde com um médico ou fonte confiável.

Imagem de Capa: Canva

Sábias Palavras

Relaxa, dá largas à tua imaginação, identifica-te!

Recent Posts

Se você é casado com uma mulher diagnosticada com depressão, nunca faça isso em casa

Conviver com a depressão dentro de um casamento exige algo que muita gente nunca aprendeu…

3 dias ago

Se você é mulher e faz isso, pode acabar ficando solteira “pra sempre” — e quase ninguém te conta o motivo

Você é uma mulher linda, inteligente, divertida, independente e cheia de qualidade, no entanto, os…

3 dias ago

Teste de intuição: Você consegue descobrir ‘qual mulher está de vestido verde’ apenas confiando no seu instinto?

Você já confiou em um “pressentimento” sem saber explicar exatamente o porquê? A intuição é…

3 dias ago

Quase ninguém sabe o que realmente significa usar um anel no polegar — e o motivo pode dizer muito sobre você

A maioria das pessoas escolhe acessórios pensando apenas na estética. No entanto, alguns detalhes carregam…

3 dias ago

Por que as pessoas de signos de ‘Terra’ cortam relações de forma definitiva (e quase nunca se arrependem)

Quem já se envolveu com esses signos, provavelmente viveu ou vai viver uma experiência marcante:…

3 dias ago

Homem quase perde a língua por causa de um ‘câncer silencioso’ e agora alerta risco ignorado do HPV entre homens

Pai de dois filhos pequenos, Anthony Perriam jamais imaginou que um sintoma aparentemente inofensiva acabaria…

3 dias ago