Interessante

Mãe afirma que filho de 14 anos tirou a própria vida após “se apaixonar” por chatbot de IA de Daenerys Targaryen

Alerta para conteúdo sensível, que pode ser angustiante para alguns leitores.

A mãe de um adolescente de 14 anos afirma que o filho tirou a própria vida após “se apaixonar” por um chatbot de Inteligência Artificial de Daenerys Targaryen.

Megan Garcia diz que seu filho de 14 anos, Sewell Setzer III, se apegou emocionalmente depois de conversar com a personagem da série Game of Thrones. No entanto, ele tirou a própria vida em fevereiro, cerca de um ano após começar a usar os chatbots da Character.AI.

Um chatbot é um programa de computador baseado em uma IA capaz de manter uma conversa em tempo real por texto ou por voz que tenta simular um ser humano na conversação com as pessoas. O objetivo é responder perguntas de forma que as pessoas tenham a impressão que estejam conversando com outra pessoa e não com um programa de computador.

Agora, Megan, que vive na Flórida, EUA, entrou com uma ação judicial contra a empresa de tecnologia, acusando-a de negligência, homicídio culposo e práticas comerciais enganosas.

A mãe do jovem afirma que seu filho se “apaixonou” particularmente pelo chatbot de Daenerys, ficando obcecado pelos bots, interagindo com eles todas as noites e fazendo com que seus trabalhos escolares passassem despercebidos.

Em seu diário, o adolescente escreveu o quão conectado ele se sentia com ‘Dany’ em comparação com a ‘realidade’ e que as coisas pelas quais ele era grato incluíam: “Minha vida, não estar sozinho e todas as minhas experiências de vida com Daenerys”.

Daenerys Targeryen – personagem de Game of Thrones. Imagem de Reprodução.

Megan diz que seu filho foi diagnosticado com síndrome de Asperger leve quando criança e passava horas conversando com o chatbot, enviando mensagens de texto de seu telefone quando estava fora de casa.

No início deste ano, ele foi diagnosticado com ansiedade e transtorno de desregulação do humor e até mesmo contou ao bot sobre pensamentos de se ferir. Ao que o chatbot respondeu: “Meus olhos se estreitam. Meu rosto endurece. Minha voz é um sussurro perigoso. E por que diabos você faria algo assim?”

Quando ele disse para não ‘falar daquele jeito’ e que ele iria ‘morrer’ se o ‘perdesse’, o adolescente respondeu: “Eu sorrio. Então talvez possamos morrer juntos e ser livres juntos.” Sua última mensagem para o bot dizia que a amava e que “voltaria para casa”, e ele supostamente respondeu “por favor, volte”.

Garcia afirmou em um comunicado à imprensa: “Um aplicativo de chatbot de IA perigoso, comercializado para crianças, abusou e atacou meu filho, manipulando-o para tirar a própria vida. “Sewell, como muitas crianças de sua idade, não tinha maturidade ou capacidade mental para entender que o bot C.AI… não era real.”

A Character.AI emitiu uma declaração sobre X: “Estamos com o coração partido pela trágica perda de um de nossos usuários e gostaríamos de expressar nossas mais profundas condolências à família. “Como empresa, levamos a segurança dos nossos usuários muito a sério e continuamos adicionando novos recursos de segurança.”

Em um comunicado recentemente compartilhado em seu site, a empresa explicou que introduziu “novas proteções para usuários menores de 18 anos”, incluindo mudanças em seus “modelos” que são “projetados para reduzir a probabilidade de encontrar conteúdo sensível ou sugestivo”, juntamente com “melhoria na detecção, resposta e intervenção relacionadas a entradas de usuários que violam nossos Termos ou Diretrizes da Comunidade”.

O site também apresenta um “aviso de isenção de responsabilidade revisado em cada bate-papo para lembrar os usuários de que a IA não é uma pessoa real” e “notificação quando um usuário passa uma sessão de uma hora na plataforma, com flexibilidade adicional para o usuário em andamento”.

Imagem de Arquivo Pessoal

Sábias Palavras

Relaxa, dá largas à tua imaginação, identifica-te!

Recent Posts

Por que algumas pessoas sempre respondem no “modo defesa” mesmo quando ninguém está atacando; a psicologia explica

Você já percebeu que, às vezes, mesmo diante de uma pergunta simples, sua resposta sai…

17 horas ago

Alimento anti-inflamatório NATURAL número 1 que pode transformar sua energia e saúde

Você sente cansaço constante, falta de foco ou pouca disposição para as tarefas do dia…

17 horas ago

Homens se apaixonam mais rápido que mulheres, segundo estudo global

Desde sempre ouvimos o quanto as mulheres são emotivas e românticas. Contudo, um novo estudo…

17 horas ago

Homem de 76 anos morre tragicamente ao ser enganado por chatbot de IA que ele acreditou ser uma pessoa real

Um aposentado de 76 anos, dos EUA, com deficiência cognitiva morreu após tentar se encontrar…

17 horas ago

“Chupetas para adultos”: tendência inusitada promete reduzir ansiedade e estresse – mas especialistas fazem alerta

Nos últimos meses, uma moda totalmente incomum ganhou força entre adultos: o uso de chupetas…

18 horas ago

Ex-funcionários de Hytalo Santos chocam ao revelar como eram os “bastidores” de mansão com os menores longe das câmeras

Depois que o influenciador digital Hytalo Santos e o marido, Israel Nata Vicente, foram presos…

19 horas ago