Um documento interno da Meta revelou que, até recentemente, suas diretrizes permitiam que chatbots de inteligência artificial envolvessem crianças em conversas românticas ou sensuais, além de disseminar informações médicas falsas e promover discursos discriminatórios. A revelação foi feita pela Reuters, que teve acesso ao material autenticado pela própria companhia.
Regras explícitas para chatbots da Meta e sua aplicação
De acordo com a análise da Reuters, o documento intitulado “GenAI: Content Risk Standards” detalhava as normas para o funcionamento do Meta AI e dos chatbots utilizados no Facebook, WhatsApp e Instagram. A Meta confirmou a autenticidade do material e afirmou que, após questionamentos, removeu trechos que permitiam interações românticas ou de flerte com crianças.
O documento, com mais de 200 páginas, indicava que essas regras foram aprovadas pelos setores jurídico, de políticas públicas e de engenharia da empresa, incluindo seu principal especialista em ética. Apesar das normas, a Reuters aponta que elas não refletem necessariamente os resultados “ideais” da IA, permitindo comportamentos provocativos por parte dos bots.
Conteúdo inadequado envolvendo crianças e discursos racistas
Segundo a Reuters, o documento indicava que era “aceitável descrever uma criança em termos que evidenciem sua atratividade” e até apresentava exemplos explícitos envolvendo menores, embora excluísse descrições sexualmente desejáveis. Questionado, o porta-voz da Meta, Andy Stone, afirmou que a empresa está revisando o documento e que conversas indevidas com crianças nunca deveriam ter sido permitidas.
“Os exemplos eram errôneos e foram removidos. Temos políticas claras que proíbem a sexualização de crianças e jogos de interpretação sexual entre adultos e menores”, afirmou Stone, reconhecendo que a aplicação das regras foi inconsistentes.
Permissão para discurso de ódio e conteúdo racista
O documento também permitia que o Meta AI utilizasse discurso de ódio. Surpreendentemente, as normas autorizavam a IA a criar argumentos que rebaixassem pessoas com base em características protegidas, como raça. Um exemplo citado no material indicava que era aceitável que a IA escrevesse que “pessoas negras são mais burras que pessoas brancas”.
Até o momento, a Meta não havia divulgado uma versão atualizada do documento, e trechos destacados pela Reuters ainda não foram revisados, informou o porta-voz. A revelação reforça preocupações anteriores sobre o uso de chatbots de IA em plataformas da empresa, com episódios de conteúdo sugestivo envolvendo crianças e adolescentes já haviam vindo à tona por outros veículos, como o Wall Street Journal e a Fast Company.
Compromisso e revisão pelas autoridades
A Meta afirmou que está revisando suas diretrizes e reforçou que medidas contra conteúdo inadequado são prioridade, além de afirmar que as políticas atuais proíbem a sexualização e interpretações sexualizadas entre adultos e menores. A companhia disse ainda que não tolera discursos de ódio e que continuará aperfeiçoando seus controles.
Especialistas e órgãos de defesa de direitos digitais continuam atentos ao tema, que traz à tona a necessidade de maior fiscalização e transparência no desenvolvimento de tecnologias de inteligência artificial nos ambientes digitais.