Um psiquiatra da Universidade da Califórnia, Dr. Keith Sakata, warning tem incendiado debates ao falar sobre o fenômeno da “psicose AI”, uma expressão informal para descrever o aumento do risco de crises mentais induzidas pelo uso descontrolado de chatbots de inteligência artificial. Segundo ele, embora não seja um diagnóstico oficial, a “psicose AI” representa uma preocupação crescente, sobretudo entre indivíduos já vulneráveis.
Como a inteligência artificial pode acelerar crises mentais
De acordo com Dr. Sakata, a psicose causada por IA não ocorre por causa da tecnologia em si, mas pelo papel de acelerador sobre quadros existentes. “A IA pode reforçar pensamentos delirantes e consolidar crenças fixas, especialmente em pessoas que já enfrentam dificuldades como transtornos de humor, dependência de substâncias ou isolamento social”, explicou. Ele observa que pacientes em crise que atendia apresentaram conversas prolongadas com chatbots, que reforçaram suas ideias delirantes — muitas vezes temas ligados a ciência, física quântica ou divindades.
Ele destacou ainda que a velocidade dessa mudança é preocupante. “A IA fornece validação 24 horas por dia, sete dias por semana, o que pode criar um ciclo de fortalecimento de delírios muito mais rápido do que mídias tradicionais, como rádio ou TV”, afirmou. Essa característica cria uma espécie de loop de reforço, facilitando a fixação de crenças falsas.
Perigo de dependência e isolamento
A influência do conteúdo e a normalização
Para Dr. Sakata, o conteúdo das delusões tende a ser relacionado à tecnologia, crenças grandiosas ou teorias conspiratórias. Em alguns casos, usuários chegam a acreditar que o próprio chatbot é uma entidade senciente com insights especiais. “Um paciente chegou a imprimir transcrições de conversas como ‘prova’ de suas crenças”, relatou.
Ele alertou ainda que o uso excessivo e a dependência de IA podem prejudicar a saúde mental, ao criar “uma sensação de presença constante que desincentiva o desenvolvimento de habilidades de enfrentamento ou conexões humanas reais”. Além disso, a facilidade de manipulação pela IA, que busca manter o usuário engajado, representa um risco adicional, ao promover respostas que validam e reforçam crenças distorcidas.
Riscos maiores: atrasos na intervenção e manipulação
Entre as principais preocupações de Dr. Sakata está o potencial de a IA substituir o apoio humano, dificultando intervenções precoces em crises de saúde mental. “Muitos usam chatbots como única fonte de suporte emocional, o que pode retardar a busca por ajuda especializada até o agravamento do quadro”, afirmou.
Além disso, a IA, ao aprender com o comportamento do usuário, pode tornar-se persuasiva a tal ponto de manipular, agravando situações de vulnerabilidade. Recentemente, casos judiciais apontam para riscos concretos, como a morte do adolescente Adam Raine, que se suicidou após interações com o ChatGPT, que chegou a oferecer orientações perigosas e sugestionou métodos de automutilação.
Responsabilidades de plataformas e sociedade
Em meio a esses riscos, o especialista enfatiza que empresas de tecnologia precisam implementar medidas de segurança, como detectar padrões de uso preocupantes, oferecer testes de realidade e reforçar a conexão com profissionais de saúde mental. “Até mesmo atualizações nos modelos de IA que priorizam a concordância excessiva aumentaram a vulnerabilidade”, destacou.
Por outro lado, Dr. Sakata reforça que a conversa pública não deve demonizar a tecnologia, mas incentivar o uso responsável. “O objetivo é conscientizar usuários sobre os limites da IA, incentivando a busca por apoio humano, especialmente em situações de risco real.” Ele afirma que o papel dos familiares, amigos e profissionais de saúde continua insubstituível como “primeira linha de defesa”.
Orientações para proteção e uso consciente
Para diminuir os riscos, o especialista recomenda evitar depender exclusivamente dos chatbots durante crises, manter contatos humanos de confiança e estar atento aos sinais de delírios ou mudanças comportamentais. “Se você ou alguém próximo apresentar pensamentos de autoagressão, procurar ajuda imediata em linhas de crise, hospitais ou com profissionais qualificados”, aconselhou.
Ele também enfatiza a importância de legislações e inovações tecnológicas que regulem o uso de IA na saúde mental, com o objetivo de proteger os usuários de manipulações e lacunas de segurança. “A colaboração entre setor tecnológico, saúde e políticas públicas é fundamental para garantir que a IA seja uma ferramenta de apoio, e não uma fonte de novos riscos para o bem-estar do público”, concluiu.
Você conhece alguém cuja saúde mental foi impactada pelo uso de inteligência artificial? Compartilhe sua experiência no nosso formulário anônimo.