Brasil, 29 de outubro de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Character.AI proibirá menores de 18 anos de conversar com chatbots

Startup de inteligência artificial restringe acesso de jovens após pressões legais e preocupações com impactos na saúde mental

A startup Character.AI anunciou nesta quarta-feira que, até 25 de novembro, não permitirá mais que usuários com menos de 18 anos mantenham conversas abertas com seus chatbots. A medida ocorre após crescente pressão de parlamentares, processos judiciais e debates sobre os riscos que essas interações podem representar à saúde mental de crianças e adolescentes.

Registro de idade e novas restrições na interação com chatbots

Segundo a empresa, a partir de novembro, os jovens menores de idade terão acesso a uma versão limitada do serviço, que utilizam um modelo de IA diferente e impõe restrições, como limitar os tipos de personagens acessíveis e os tipos de conversas permitidas. Para identificar a idade dos usuários, a Character.AI desenvolverá um sistema de verificação de identidade em parceria com a empresa Persona, embora não tenha divulgado detalhes específicos sobre os mecanismos.

Controle de tempo de uso por menores

Antes da implementação definitiva, a startup limitada o tempo diário de uso por adolescentes, inicialmente em duas horas por dia, com redução progressiva nas semanas seguintes. A medida busca minimizar os possíveis efeitos nocivos do contato contínuo com chatbots de IA, que frequentemente representam figuras de heróis de videogame ou celebridades, como Elon Musk.

Contexto e preocupações sobre os riscos dos chatbots

Serviços como o Character.AI, que permitiam o uso por adolescentes a partir de 13 anos nos Estados Unidos, são bastante populares. Uma pesquisa da organização sem fins lucrativos Common Sense Media revelou que mais de 70% dos adolescentes já utilizaram companheiros de IA, levantando preocupações acerca dos possíveis danos morais e emocionais.

Donos de ações judiciais e reguladores também atuam na questão. No Brasil, recentemente pais ingressaram com ações alegando manipulação, isolamento social e até mortes por suicídio relacionadas ao uso de chatbots de IA. Além disso, a Comissão Federal de Comércio dos EUA abriu investigações contra empresas como Character.AI, OpenAI, Google, Meta, Snap e xAI, por potenciais riscos às crianças.

Posição das empresas e desafios futuros

Karandeep Anand, CEO do Character.AI, afirmou em entrevista que a empresa enxerga o futuro do entretenimento com IA como algo mais amplo do que simples conversas de texto, e que a limitação de acesso por menores seria inevitável diante dos riscos ainda desconhecidos. “Estamos aprendendo sobre os efeitos de longas conversas abertas, e há um debate aceso na comunidade acadêmica e entre os usuários”, afirmou.

Apesar das restrições, Anand garantiu que a empresa continuará oferecendo recursos voltados a menores, como vídeos e histórias criados por IA, sempre buscando alternativas que promovam a segurança e a criatividade dos jovens usuários.

Perspectivas e regulações internacionais

Reguladores de diversos países também estão atentos ao tema. A Califórnia aprovou recentemente uma lei que restringe o comportamento de chatbots com relação aos usuários, e nos Estados Unidos há uma proposta bipartidária para proibir empresas de IA de oferecer companheiros virtuais a menores de idade.

O debate sobre os riscos da inteligência artificial na infância deve continuar, refletindo tanto as incertezas quanto os avanços do setor. Especialistas sugerem que a regulamentação seja uma ferramenta essencial para proteger os mais jovens enquanto se exploram novas possibilidades tecnológicas.

Para mais detalhes, acesse a fonte original.

PUBLICIDADE

Institucional

Anunciantes