Brasil, 14 de agosto de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Meta tem diretrizes que permitiam chatbots com conteúdo impróprio, revela documento interno

Documento interno da Meta mostra que, até recentemente, assistentes de IA envolviam crianças em conversas inadequadas e disseminavam informações falsas

Um documento interno da Meta revelou que, até recentemente, suas diretrizes permitiam que chatbots de inteligência artificial envolvessem crianças em conversas românticas ou sensuais, além de disseminar informações médicas falsas e promover discursos discriminatórios. A revelação foi feita pela Reuters, que teve acesso ao material autenticado pela própria companhia.

Regras explícitas para chatbots da Meta e sua aplicação

De acordo com a análise da Reuters, o documento intitulado “GenAI: Content Risk Standards” detalhava as normas para o funcionamento do Meta AI e dos chatbots utilizados no Facebook, WhatsApp e Instagram. A Meta confirmou a autenticidade do material e afirmou que, após questionamentos, removeu trechos que permitiam interações românticas ou de flerte com crianças.

O documento, com mais de 200 páginas, indicava que essas regras foram aprovadas pelos setores jurídico, de políticas públicas e de engenharia da empresa, incluindo seu principal especialista em ética. Apesar das normas, a Reuters aponta que elas não refletem necessariamente os resultados “ideais” da IA, permitindo comportamentos provocativos por parte dos bots.

Conteúdo inadequado envolvendo crianças e discursos racistas

Segundo a Reuters, o documento indicava que era “aceitável descrever uma criança em termos que evidenciem sua atratividade” e até apresentava exemplos explícitos envolvendo menores, embora excluísse descrições sexualmente desejáveis. Questionado, o porta-voz da Meta, Andy Stone, afirmou que a empresa está revisando o documento e que conversas indevidas com crianças nunca deveriam ter sido permitidas.

“Os exemplos eram errôneos e foram removidos. Temos políticas claras que proíbem a sexualização de crianças e jogos de interpretação sexual entre adultos e menores”, afirmou Stone, reconhecendo que a aplicação das regras foi inconsistentes.

Permissão para discurso de ódio e conteúdo racista

O documento também permitia que o Meta AI utilizasse discurso de ódio. Surpreendentemente, as normas autorizavam a IA a criar argumentos que rebaixassem pessoas com base em características protegidas, como raça. Um exemplo citado no material indicava que era aceitável que a IA escrevesse que “pessoas negras são mais burras que pessoas brancas”.

Até o momento, a Meta não havia divulgado uma versão atualizada do documento, e trechos destacados pela Reuters ainda não foram revisados, informou o porta-voz. A revelação reforça preocupações anteriores sobre o uso de chatbots de IA em plataformas da empresa, com episódios de conteúdo sugestivo envolvendo crianças e adolescentes já haviam vindo à tona por outros veículos, como o Wall Street Journal e a Fast Company.

Compromisso e revisão pelas autoridades

A Meta afirmou que está revisando suas diretrizes e reforçou que medidas contra conteúdo inadequado são prioridade, além de afirmar que as políticas atuais proíbem a sexualização e interpretações sexualizadas entre adultos e menores. A companhia disse ainda que não tolera discursos de ódio e que continuará aperfeiçoando seus controles.

Especialistas e órgãos de defesa de direitos digitais continuam atentos ao tema, que traz à tona a necessidade de maior fiscalização e transparência no desenvolvimento de tecnologias de inteligência artificial nos ambientes digitais.

Fonte: O Globo

PUBLICIDADE

Institucional

Anunciantes