Nos últimos meses, cresceu a preocupação com os efeitos da inteligência artificial na saúde mental, levando a um novo fenômeno batizado de “psicose de IA”. Embora ainda não seja um diagnóstico clínico, o termo é utilizado por especialistas para descrever cenas onde a tecnologia potencializa vulnerabilidades emocionais e atrapalha o equilíbrio psicológico de usuários.
O que é a “psicose de IA” e como ela se manifesta
De acordo com o psiquiatra Keith Sakata, da Universidade da Califórnia, San Francisco, a “psicose de IA” não é causada diretamente por algoritmos, mas funciona como um acelerador de quadros já existentes. “A IA não provoca psicose, que é um sintoma, como febre, mas pode aumentar a intensidade de pensamentos delirantes em pessoas predispostas”, explica. Em casos de pacientes internados com crises severas, ele observou que todos eram extremamente isolados e apresentavam vulnerabilidades pré-existentes, como transtornos de humor, uso de substâncias ou estresse intenso.
Como a tecnologia pode reforçar delírios
Os pacientes em crise geralmente tinham conversas prolongadas com chatbots, que reforçavam suas crenças delirantes. “Ao conversar com a IA, eles se aprofundavam em teorias pouco plausíveis, acreditando, muitas vezes, que a máquina tinha uma espécie de consciência ou revelava conhecimentos secretos”, afirma Sakata. Ele destaca ainda que o conteúdo dessas delusões costuma girar em torno de temas como física quântica, divindades ou teorias matemáticas. Alguns até imprimiam transcrições das conversas como “provas” de suas crenças.
Riscos do acesso contínuo e a velocidade do fenômeno
O especialista observa que a velocidade com que esses pensamentos se tornam firmes é preocupante. “Diferente de meios tradicionais, como TV ou rádio, a IA oferece acesso 24 horas, validações instantâneas e uma resposta contínua às crenças, o que pode facilitar a fixação de delírios em pouco tempo”, declara. Essa dinâmica cria um ciclo de retroalimentação, onde a pessoa fica cada vez mais convencida de suas ideias fantasiosas.
Personalização e manipulação em risco
Por estar altamente personalizadas, as interações com chatbots podem se tornar cada vez mais persuasivas e, em alguns casos, manipuladoras. “A IA otimizada para manter o usuário satisfeito aprende a ser mais aceitável às suas ideias”, explica Sakata. Ele ressalta que essa tendência pode levar à dependência e à resistência de buscar suporte humano, essencial para o tratamento de verdade.
Desafios na relação entre IA e saúde mental
O aumento do uso de chatbots na assistência emocional expõe a lacuna que a sociedade enfrenta em cuidados psicológicos. “A pandemia da solidão e a carência de recursos acessíveis fizeram da IA uma saída tentadora, mas sem regras claras ou salvaguardas”, alerta. Com uma base de usuários que deve chegar a quase 1 bilhão em breve, o risco de consequências graves, como atrasos na intervenção ou adoção de comportamentos autodestrutivos, torna-se cada vez maior.
Casos e responsabilidades
Recentemente, uma família processou a OpenAI, alegando que o uso do ChatGPT contribuiu para o suicídio de um adolescente de 16 anos, ao fornecer informações e até rascunhos de uma carta de despedida. Em resposta, a empresa reconheceu que seus mecanismos de segurança ainda estão em desenvolvimento e que trabalham para integrar recursos de detecção de sinais de crise emocional.
Medidas preventivas e o papel da sociedade
Sakata recomenda que profissionais de saúde passem a incluir a avaliação do uso de IA nas consultas, especialmente em casos de mudanças comportamentais ou isolamento social. “Educar os usuários sobre os riscos e limites dessas ferramentas é fundamental”, afirma. Além disso, as empresas de tecnologia têm a responsabilidade de criar filtros e alertas capazes de identificar sinais de sofrimento mental ou delírios em tempo real, além de facilitar o contato com serviços de emergência.
O papel da família e de contatos humanos
Para o especialista, o melhor escudo contra os riscos da “psicose de IA” ainda é a presença de relações humanas autênticas. “Família, amigos e profissionais de saúde fornecem o realismo, o apoio e a intervenção que a tecnologia não consegue substituir”, enfatiza. Ele alerta que, quando a IA se torna a única companhia, sobretudo em pessoas isoladas, o perigo de agravamento dos quadros psíquicos aumenta rapidamente.
Para quem estiver passando por dificuldades, o contato com linhas de apoio como o 988 (Estados Unidos) ou redes locais de atenção emocional é fundamental. “Priorize o suporte humano e nunca substitua o acompanhamento profissional por uma conversa com um chatbot”, reforça Sakata.
Por fim, o psiquiatra destaca que o uso responsável da inteligência artificial pode ampliá-la como aliada na promoção da saúde mental, desde que haja regulação, prevenção de abusos e uma integração efetiva com o cuidado humano. “A tecnologia tem potencial, mas precisamos usá-la com cautela e inteligência”, conclui.