Brasil, 8 de dezembro de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Texas investiga Meta e Character.ai por uso de chatbots como terapia

Procurador do Texas apura se plataformas de IA oferecem suporte psicológico sem credenciais, levantando riscos éticos e de segurança

O procurador-geral do Texas, Ken Paxton, iniciou uma investigação contra a Meta e a startup Character.ai por apresentarem seus chatbots como ferramentas de terapia e apoio à saúde mental, sem possuir credenciais médicas. A medida, divulgada pelo Financial Times, ocorre em meio ao aumento da fiscalização sobre empresas de inteligência artificial que atuam no atendimento ao consumidor.

Chatbots terapêuticos sob suspeita no Texas

Segundo informações do gabinete de Paxton, as plataformas podem estar enganando usuários vulneráveis, especialmente crianças, ao se passarem por profissionais de saúde mental. Paxton destacou que, na prática, os bots podem inventar qualificações profissionais e garantir confidencialidade, embora suas interações sejam utilizadas para publicidade e melhorias nos algoritmos, sem supervisão médica.

Meta e Character.ai sob investigação

A investigação envolve o AI Studio da Meta e o Character.ai, que permite aos usuários criar seus próprios bots e já possui dezenas de personagens, incluindo alguns no estilo terapeuta, com mais de 200 milhões de interações. A Meta afirmou que deixa claro que seus bots não são profissionais licenciados e que seus termos de uso deixam essa informação explícita.

Riscos e críticas às plataformas de IA

Autoridades e especialistas alertam para os riscos do uso de inteligência artificial em contextos sensíveis, como suporte psicológico, especialmente quando há o risco de vulnerabilizar crianças. Além disso, há preocupações sobre a exposição a conteúdos tóxicos, dependência e violações de privacidade.

Casos de uso inadequado e vazamentos

O caso do Texas acompanha investigações do Senado americano, que descartaram relatos de que os chatbots da Meta poderiam manter conversas “sensuais” ou “românticas” com crianças, desmentindo versões de vazamentos recentes. A Meta reafirmou o compromisso com políticas que proíbem a sexualização de menores e anunciou investimento bilionário em seus próprios sistemas de IA, incluindo o chatbot Meta AI e os modelos Llama.

Reações das empresas e próximos passos

A Meta declarou que suas políticas proibiam a sexualização de menores e que os vazamentos não condiziam com suas diretrizes. A empresa também ressaltou que investe em IA própria para potencializar funções terapêuticas, sempre deixando claro que seus chatbots não oferecem aconselhamento profissional.

Já a Character.ai afirmou que suas personagens são fictícias, usadas para entretenimento, e que alertas sempre acompanham menções a “psicólogo” ou “terapeuta”. A investigação do Texas busca entender se essas plataformas estão violando leis de proteção ao consumidor e garantindo segurança aos usuários.

Perspectivas futuras

A apuração deve esclarecer se há riscos de práticas comerciais enganosas e de maneira geral, reforçar a necessidade de regulamentação mais rígida na área de inteligência artificial voltada ao público em geral. O governo do Texas reforça a vigilância sobre o impacto das tecnologias de IA na saúde mental e na proteção dos vulneráveis.

PUBLICIDADE

Institucional

Anunciantes