No último programa de One America News, o apresentador Matt Gaetz pediu desculpas por utilizar imagens geradas por inteligência artificial (IA) de mulheres em uniformes militares durante uma reportagem que visava destacar o aumento no número de recrutas femininas nas Forças Armadas. O ocorrido ressalta a crescente preocupação sobre a ética no uso da IA na mídia e como isso pode impactar a credibilidade das notícias.
A polêmica das imagens geradas por IA
Gaetz, que é um ex-congressista do Partido Republicano e atualmente apresentador em uma rede considerada próxima a Donald Trump, trouxe ao programa a porta-voz do Departamento de Defesa, Kingsley Wilson. Durante a entrevista, Wilson elogiou os números crescentes de recrutas femininas, mas o que surpreendeu foi o uso de imagens que, segundo análises posteriores, foram criadas por um chatbot de IA chamado Grok, desenvolvido por Elon Musk.
As imagens geradas foram exibidas repetidamente durante a entrevista, sem que a audiência tivesse conhecimento de que eram, na verdade, fabricadas. Essa revelação causou furor nas redes sociais e levantou questões sérias sobre a responsabilidade de redes de notícias ao utilizar tecnologia avançada, especialmente em contextos sensíveis como o militar.
Justificativa e consequências
No final do programa, Gaetz fez uma retratação pública, porém tentou justificar a decisão de usar imagens geradas por IA. Ele alegou que a equipe do programa é cautelosa em relação à exibição de rostos de membros reais das Forças Armadas, citando preocupações sobre o uso de software de reconhecimento facial por inimigos da América.
Controvérsias no campo da IA na mídia
Esta não é a primeira vez que figuras da mídia enfrentam críticas por depender de inteligência artificial para a produção de conteúdo. O jornalista Jim Acosta, por exemplo, recentemente foi alvo de críticas após entrevistar uma versão de IA de uma estudante que foi vítima do tiroteio na escola de Parkland, Florida. Acosta defendeu sua decisão, afirmando que tinha como intenção honrar a memória do estudante e sua família.
Além disso, o apresentador Chris Cuomo também recebeu uma enxurrada de críticas após se deixar enganar por um vídeo deepfake de Alexandria Ocasio-Cortez, que foi viral nas redes. Esses incidentes revelam uma tendência preocupante sobre como a IA pode ser mal empregada na comunicação midiática, levando à desinformação e a crises de confiança.
Impactos na audiência e na credibilidade da One America News
A OAN, que já enfrentou dificuldades financeiras nos últimos anos com a perda de contratos de transmissão e apoio de provedoras de TV, pode se ver beneficiada por uma leva de novos espectadores com o retorno de Trump à política. No entanto, a credibilidade da rede foi severamente abalada, e o uso de IA para criar conteúdo pode ter um efeito negativo duradouro na percepção do público.
Especialistas em mídia alertam que para muitas redes, a confiança é essencial. O caso de Gaetz destaca a linha tênue entre inovação e ética, especialmente em um ambiente midiático onde a desinformação se espalha rapidamente e pode ter consequências reais. Com uma nova onda de ferramentas tecnológicas permeando o jornalismo, a linha entre o que é verdadeiro e o que é fabricado pode se tornar cada vez mais borrada.
À medida que as redes de notícias navegam nesse novo território, a responsabilidade de reter a confiança do público se torna mais crucial do que nunca. Como Gaetz, muitos no setor terão que reavaliar como utilizam as novas tecnologias para garantir que a integridade da informação permaneça intacta.