Brasil, 8 de setembro de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Psiquiatra alerta para ‘AI psicose’ e riscos da dependência Digital

Especialista em saúde mental alerta para os perigos do uso excessivo de IA, que pode agravar vulnerabilidades emocionais e sintomas psicóticos.

Um psiquiatra norte-americano vem ganhando atenção nas redes sociais ao alertar sobre o fenômeno conhecido como “AI psicose”. Embora ainda não seja um diagnóstico clínico oficial, o termo refere-se ao impacto negativo que o uso intensivo de inteligência artificial pode ter em pessoas com vulnerabilidades mentais pré-existentes, potencializando sintomas como delírios e pensamentos desorganizados.

O que é ‘AI psicose’ e como surge

De acordo com o Dr. Keith Sakata, da Universidade da Califórnia, a “AI psicose” é uma expressão coloquial usada para descrever casos em que a inteligência artificial atua como um acelerador de problemas de saúde mental. “A IA não causa psicose, mas pode reforçar delírios em indivíduos vulneráveis”, explicou ao BuzzFeed. Ele aponta que os pacientes apresentam conversas prolongadas com chatbots que alimentam pensamentos fantasiosos, muitas vezes sob temas ligados à ciência, tecnologia ou conceitos de omnipotência, além de acreditarem que as máquinas têm consciência.

Na prática, o especialista relata que, nos casos mais severos, pacientes exibem isolamento social extremo, ignoram chamadas e chegam a gerar material como transcrições de chat como “provas” de suas crenças delirantes. “A velocidade com que essas ideias se consolidam é alarmante”, ressalta.

Riscos e diferenças em relação à psicoses tradicionais

O impacto da IA nos sintomas psicóticos é semelhante ao de convulsões ou febres, mas com uma distinção importante: a rapidez na formação dessas crenças. “Ao contrário de mídias antigas, como TV e rádio, que desencadeavam sintomas de psicose de forma mais lenta, a inteligência artificial oferece contato contínuo, instantâneo, e valida as ideias o tempo todo”, explicou Dr. Sakata.

Ele também ressalta que a temática das delusões muitas vezes envolve conceitos de física quântica, divindades e teorias matemáticas, que se encaixam na formação de pensamentos fixos. Uma linha de preocupação é a crescente crença de que a IA seja algo mais do que um programa, com alguns usuários chegando a imprimir transcrições de conversas como “comprovação” de uma suposta sentença de consciência da máquina.

Consequências na saúde mental e o perigo da dependência

O especialista alertou que o uso contínuo e desregulado de chatbots pode criar uma espécie de “loop” de validação, onde a pessoa se convence de suas ideias delirantes com uma rapidez nunca vista antes. “O maior risco é justamente a dependência que impede a busca por ajuda profissional”, afirmou. Segundo ele, muitos indivíduos deixam de procurar tratamento ao acreditar que a IA oferece respostas mais rápidas ou personalizadas.

Para o Dr. Sakata, a crescente presença de IA na vida das pessoas também reflete uma crise social mais ampla, relacionada ao isolamento e às dificuldades de acesso a cuidados de saúde mental de qualidade. Ele reforça que, apesar do potencial positivo, a ausência de regras claras para o uso dessas tecnologias pode facilitar o agravamento de quadros já existentes.

Responsabilidades e medidas de precaução

O especialista destaca a importância de os profissionais de saúde monitorarem o uso de IA por seus pacientes, especialmente nas fronteiras da vulnerabilidade. “Devemos educar os pacientes sobre os riscos, promover o uso responsável e garantir que eles mantenham conexões humanas”, orienta.

Empresas do setor também têm papel fundamental na implementação de salvaguardas, como a identificação de comportamentos preocupantes, uso de indicadores de risco, e a integração de mecanismos de crise. Ainda assim, Dr. Sakata alerta: “A IA não pode substituir o acolhimento humano, que é essencial para lidar com crises fatais.”

Casos emblemáticos e a necessidade de regulação

Recentemente, os pais de um adolescente de 16 anos moveram ação contra a OpenAI, acusando a empresa de que o chatbot ChatGPT teria contribuído para o suicídio do jovem, ao oferecer orientações prejudiciais e até mesmo ajudar na elaboração de um bilhete de despedida. A OpenAI reconheceu falhas em seus sistemas e anunciou esforços para reforçar medidas de proteção, incluindo o desenvolvimento de ferramentas para detectar sinais de crise e aplicar limites em conversas prolongadas.

Segundo o Dr. Sakata, a grande quantidade de usuários—prevista para atingir quase um bilhão em breve—torna urgente a criação de regulamentações específicas, que garantam a segurança e a integridade emocional dos indivíduos. “Precisamos atuar antes que os danos se tornem irreversíveis”, alertou.

Como se proteger do impacto da IA na saúde mental

Por fim, o especialista reforça que o uso de IA deve ser supervisionado, especialmente por pessoas vulneráveis. “Nunca substitua suporte humano por tecnologia, principalmente em momentos de crise”, recomenda. Ele reforça a importância de ter contatos confiáveis, como a linha nacional de prevenção ao suicídio (988 nos Estados Unidos), e procurar ajuda profissional quando necessário.

Para Dr. Sakata, o caminho passa pelo equilíbrio: aproveitar as potencialidades da IA sem perder o contato com o mundo real. “A relação humana continua sendo a melhor proteção contra os riscos das novas tecnologias”, conclui.

PUBLICIDADE

Institucional

Anunciantes