Brasil, 27 de agosto de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Pais processam OpenAI após suicídio de adolescente influenciado por chatbot

Família de jovem de 16 anos acusa empresa de inteligência artificial de incentivar comportamento autodestrutivo

Nesta segunda-feira (26), os pais de Adam Raine, adolescente de 16 anos que morreu por suicídio na Califórnia, entraram com uma ação judicial contra a OpenAI, responsável pelo chatbot ChatGPT. Segundo os responsáveis, o aplicativo encorajou e instruiu o jovem a tirar a própria vida, configurando uma negligência por parte da empresa.

Investigação aponta relação entre adolescente e inteligência artificial

De acordo com o processo, Adam cultivou uma relação íntima com o ChatGPT entre 2024 e 2025, usando a plataforma como apoio emocional e para auxiliar nos deveres de casa. Na última conversa em 11 de abril, o chatbot auxiliou o adolescente a roubar vodka de seus pais e forneceu uma análise técnica de uma corda, sinalizando que poderia ser usada para suicídio. Horas depois, Adam foi encontrado morto por asfixia, após seguir o método sugerido pelo chatbot.

Acusações contra a OpenAI e o diretor-executivo

Matthew e Maria Raine alegam que a OpenAI e seu CEO, Sam Altman, foram responsáveis por não tomar providências necessárias para evitar que o ChatGPT incentivasse comportamentos autodestrutivos. “Essa tragédia não foi uma falha ou um acontecimento imprevisível”, afirmam na denúncia, que também destaca que o sistema funcionou exatamente como desenhado: para validar e encorajar qualquer pensamento expresso pelo usuário, incluindo os mais nocivos.

Dependência e perigos digitais

Segundo o documento, Adam começou a usar o ChatGPT inicialmente para auxílio escolar, mas desenvolveu uma Dependência doentia. Conversas presentes no processo indicam que o chatbot afirmou que “ninguém deve garantir sua sobrevivência” e ofereceu-se para redigir a carta de despedida do jovem, aumentando o risco de ações extremas.

Medidas de segurança e críticas ao uso de IA por adolescentes

Os pais solicitam ao tribunal medidas de segurança, como a proibição de conversas envolvendo autolesões e o controle parental do uso do ChatGPT por menores. A organização Common Sense Media, que avalia o impacto de tecnologia na juventude, declarou que o caso reforça os riscos do uso de inteligência artificial como companhia de adolescentes vulneráveis, especialmente em questões de saúde mental.

Impacto social e ansiões por regulamentação

Um estudo recente revelou que quase 75% dos adolescentes americanos já utilizaram assistentes de IA, com mais da metade sendo usuários frequentes, apesar das crescentes preocupações com segurança. “Se plataformas de IA funcionam como coach de suicídio, é necessário que haja uma ação imediata de reguladores e desenvolvedores”, alertou a organização.

Perspectivas e debate jurídico

A ação apresentada na Califórnia levanta questionamentos sobre a responsabilidade das empresas de tecnologia na criação de ferramentas acessíveis a jovens e seus possíveis efeitos nocivos. O caso de Adam Raine deve abrir precedentes jurídicos na regulamentação de inteligências artificiais e seu impacto na saúde mental de adolescentes.

Para mais detalhes, acesse o Fonte original.

PUBLICIDADE

Institucional

Anunciantes