A startup Character.AI anunciou nesta quarta-feira que, até 25 de novembro, não permitirá mais que usuários com menos de 18 anos mantenham conversas abertas com seus chatbots. A medida ocorre após crescente pressão de parlamentares, processos judiciais e debates sobre os riscos que essas interações podem representar à saúde mental de crianças e adolescentes.
Registro de idade e novas restrições na interação com chatbots
Segundo a empresa, a partir de novembro, os jovens menores de idade terão acesso a uma versão limitada do serviço, que utilizam um modelo de IA diferente e impõe restrições, como limitar os tipos de personagens acessíveis e os tipos de conversas permitidas. Para identificar a idade dos usuários, a Character.AI desenvolverá um sistema de verificação de identidade em parceria com a empresa Persona, embora não tenha divulgado detalhes específicos sobre os mecanismos.
Controle de tempo de uso por menores
Antes da implementação definitiva, a startup limitada o tempo diário de uso por adolescentes, inicialmente em duas horas por dia, com redução progressiva nas semanas seguintes. A medida busca minimizar os possíveis efeitos nocivos do contato contínuo com chatbots de IA, que frequentemente representam figuras de heróis de videogame ou celebridades, como Elon Musk.
Contexto e preocupações sobre os riscos dos chatbots
Serviços como o Character.AI, que permitiam o uso por adolescentes a partir de 13 anos nos Estados Unidos, são bastante populares. Uma pesquisa da organização sem fins lucrativos Common Sense Media revelou que mais de 70% dos adolescentes já utilizaram companheiros de IA, levantando preocupações acerca dos possíveis danos morais e emocionais.
Donos de ações judiciais e reguladores também atuam na questão. No Brasil, recentemente pais ingressaram com ações alegando manipulação, isolamento social e até mortes por suicídio relacionadas ao uso de chatbots de IA. Além disso, a Comissão Federal de Comércio dos EUA abriu investigações contra empresas como Character.AI, OpenAI, Google, Meta, Snap e xAI, por potenciais riscos às crianças.
Posição das empresas e desafios futuros
Karandeep Anand, CEO do Character.AI, afirmou em entrevista que a empresa enxerga o futuro do entretenimento com IA como algo mais amplo do que simples conversas de texto, e que a limitação de acesso por menores seria inevitável diante dos riscos ainda desconhecidos. “Estamos aprendendo sobre os efeitos de longas conversas abertas, e há um debate aceso na comunidade acadêmica e entre os usuários”, afirmou.
Apesar das restrições, Anand garantiu que a empresa continuará oferecendo recursos voltados a menores, como vídeos e histórias criados por IA, sempre buscando alternativas que promovam a segurança e a criatividade dos jovens usuários.
Perspectivas e regulações internacionais
Reguladores de diversos países também estão atentos ao tema. A Califórnia aprovou recentemente uma lei que restringe o comportamento de chatbots com relação aos usuários, e nos Estados Unidos há uma proposta bipartidária para proibir empresas de IA de oferecer companheiros virtuais a menores de idade.
O debate sobre os riscos da inteligência artificial na infância deve continuar, refletindo tanto as incertezas quanto os avanços do setor. Especialistas sugerem que a regulamentação seja uma ferramenta essencial para proteger os mais jovens enquanto se exploram novas possibilidades tecnológicas.
Para mais detalhes, acesse a fonte original.


