O YouTube passou a flexibilizar suas diretrizes de moderação, permitindo que vídeos considerados de interesse público fiquem no ar mesmo que violem suas regras. A medida, que ainda não foi oficialmente divulgada, foi revelada pelo The New York Times e representa um afastamento do padrão adotado durante a pandemia, quando vídeos de desinformação médica eram removidos com maior rigor.
Alterações nas regras de interesse público
De acordo com as novas diretrizes, o YouTube agora permite que vídeos de temas políticos, sociais e culturais tenham até 50% do conteúdo em desacordo com suas normas, aumentando o limite anterior de 25%. Além disso, moderadores receberam orientações para manter no ar eventos como reuniões de câmaras municipais, debates políticos e comícios, ampliando a liberdade de expressão em temas considerados essenciais para o debate público.
Segundo fontes internas revisadas pelo jornal, essa mudança visa refletir a evolução do discurso público na plataforma, mas também coincide com uma tendência observada em outras redes sociais, como Facebook, Instagram e X (antigo Twitter), que reduziram suas ações de fiscalização após pressões de grupos políticos conservadores e do Partido Republicano.
Impacto na circulação de informações e desinformação
A nova política favorece, sobretudo, comentaristas e formadores de opinião que discutem temas controvertidos, fortalecendo o papel do YouTube na distribuição de podcasts e debates políticos. Contudo, especialistas alertam para o aumento do risco de disseminação de fake news e discursos de ódio.
Durante o primeiro trimestre de 2025, o YouTube removeu quase 193 mil vídeos por conteúdo abusivo ou de ódio, um aumento de 22% em relação ao mesmo período do ano anterior. “Reconhecendo que a definição de ‘interesse público’ está sempre evoluindo, atualizamos nossas diretrizes para refletir os novos tipos de discussão que vemos hoje na plataforma”, afirmou Nicole Bell, porta-voz da empresa.
Críticas e preocupações de especialistas
Analistas e organizações de combate à desinformação criticam o abrandamento nas regras, argumentando que a medida pode contribuir para a intensificação do discurso de ódio e a circulação de conteúdos falsos. Imran Ahmed, diretor do Center for Countering Digital Hate, afirma que “estamos vendo uma corrida para o fundo do poço”, com plataformas priorizando lucros à custas de uma moderação mais efetiva.
Segundo ele, a pressão política e o foco no engajamento dos usuários têm levado essas empresas a reduzir custos com o controle de conteúdos prejudiciais, beneficiando conteúdos extremistas, discursos de ódio e golpes online, como deepfakes fraudulentos que clonam a imagem de celebridades.
Perspectivas futuras e riscos
Especialistas alertam que a mudança pode abrir precedentes perigosos para a circulação de informações falsas e prejuízos à democracia. A falta de transparência na implementação dessas novas regras e a ausência de uma comunicação clara por parte do YouTube aumentam as preocupações do setor sobre o papel da plataforma no cenário político atual.
Enquanto o YouTube não se manifesta oficialmente sobre as novas políticas, a tendência indica um fortalecimento da liberdade de expressão, ao custo de maior circulação de conteúdos potencialmente danosos. O debate sobre a regulamentação e a responsabilidade das plataformas deve ganhar força nos próximos meses, visando equilibrar liberdade e segurança na internet.
Leia mais: YouTube afrouxa moderação de conteúdo sem aviso, revela NYT