A empresa Meta, responsável por plataformas populares como Facebook e Instagram, anunciou a remoção de diversos anúncios que promoviam aplicativos denominados “nudify”. Essas ferramentas de inteligência artificial são utilizadas para criar deepfakes sexualmente explícitos com imagens de pessoas reais, levando a um debate acalorado sobre a segurança e a ética digital.
Investigações revelam a proliferação de anúncios problemáticos
A investigação realizada pela CBS News revelou a existência de centenas de anúncios deste tipo circulando nas plataformas da Meta. Um porta-voz da empresa afirmou: “Temos regras rígidas contra imagens íntimas não consensuais; removemos esses anúncios, deletamos as páginas responsáveis por veiculá-los e bloqueamos permanentemente os URLs associados a esses aplicativos.” Na prática, isso significa que a Meta está tentando se distanciar de uma questão que vem sendo amplamente debatida na sociedade contemporânea.
Os anúncios foram encontrados, especialmente na função “Stories” do Instagram, promovendo ferramentas que dizem permitir que os usuários “subam uma foto” para “ver qualquer pessoa nua”. Outros anúncios ofereciam o upload e a manipulação de vídeos de pessoas reais, levantando preocupações éticas sobre como essas tecnologias estão sendo utilizadas.
Implicações legais e a resposta de Meta
Com a pressão crescente para que as plataformas sociais assumam a responsabilidade por conteúdos prejudiciais, a legislação também está se adaptando. O “Take It Down Act”, assinado recentemente pelo Presidente Trump, exige que sites e redes sociais removam conteúdos de deepfake em até 48 horas após serem notificados por uma vítima. Apesar das novas medidas legais, o foco ainda parece estar mais nas consequências do que nas ferramentas que permitem a criação desse tipo de conteúdo.
Além disso, uma análise da biblioteca de anúncios da Meta revelou que muitos desses anúncios eram direcionados a homens entre 18 e 65 anos, ativos em mercados como os Estados Unidos, União Europeia e Reino Unido. Isso evidencia a forma como essas ferramentas estão se tornando acessíveis a uma ampla audiência.
Desafios persistentes no combate ao conteúdo prejudicial
A preocupação de Meta com a disseminação de conteúdo gerado por IA é evidente. Um porta-voz da empresa afirmou que a evolução constante das táticas utilizadas pelos criadores desses aplicativos representa um desafio crescente. “As pessoas por trás desses aplicativos exploradores constantemente evoluem suas táticas para evitar a detecção, por isso estamos continuamente trabalhando para fortalecer nossa fiscalização,” disse ele.
Embora a Meta tenha tomado certas ações, a CBS News constatou que novos anúncios para ferramentas “nudify” ainda estavam disponíveis na plataforma mesmo após as remoções de conteúdo previamente sinalizado. Isso levanta questões sobre a eficácia das medidas de controle existentes.
A responsabilidade das grandes plataformas
A crescente preocupação com a segurança online, especialmente para os menores, é um tema que merece atenção. A análise de um dos sites promovidos no Instagram revelou que não havia qualquer forma de verificação de idade antes que um usuário pudesse carregar uma foto para gerar uma imagem deepfake. Essa falta de medidas de proteção pode expor jovens a conteúdos impróprios e potencialmente prejudiciais.
As diretrizes de anúncios da Meta proíbem explicitamente nudidade e atividades sexuais, além de imagens sexualmente sugestivas, mas a aplicação dessas regras é frequentemente questionada. A questão se intensifica quando se considera que algumas ferramentas não são apenas acessíveis, mas também são comercializadas com propósitos obscuros.
Colaboração entre plataformas é crucial
Especialistas como Alexios Mantzarlis, diretor da Iniciativa de Segurança, Confiança e Segurança da Universidade de Cornell, pedem uma cooperação mais robusta entre as grandes plataformas para garantir que aplicativos e sites que operem nesse espaço sejam efetivamente regulados. “Se o app ou website se comercializa como uma ferramenta para nudificação, então todos deveriam agir em consequência,” afirmou Mantzarlis.
Conforme o cenário evolui, fica claro que existe uma necessidade urgente de fortalecer as regulamentações e os mecanismos de controle para garantir que as tecnologias de inteligência artificial não sejam utilizadas para explorar e prejudicar os outros, especialmente os mais vulneráveis.