Brasil, 30 de agosto de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Reação explosiva a entrevista de IA com vítima da tragédia de Parkland

Jim Acosta enfrentou críticas após compartilhar uma entrevista com uma IA de Joaquin Oliver, vítima do tiroteio que chocou o mundo em 2018.

Na última segunda-feira, o ex-apresentador da CNN, Jim Acosta, gerou uma enorme controvérsia ao divulgar uma entrevista com uma inteligência artificial de Joaquin Oliver, vítima do massacre na escola de Parkland, na Flórida. A conversa, publicada na plataforma SubStack, foi criada pelos pais de Oliver em homenagem ao que teria sido seu 25º aniversário, e Acosta declarou que ficou “sem palavras” ao participar do diálogo.

Reação negativa e críticas intensas ao experimento

O uso da IA para simular o estudante, que morreu em 2018, foi considerado por muitos like uma violação de limites éticos, gerando reações de repúdio nas redes sociais. Um usuário questionou: “Ei, Jim. Uma pergunta rápida: o que diabos há de errado com você?”

Nos comentários, internautas expressaram assombro com a decisão e disseram que a entrevista foi “sensacionalista” ou “desrespeitosa”, questionando o impacto emocional para as famílias das vítimas. Ainda assim, Acosta afirmou que a conversa foi “muito reveladora” e que sentiu que, de certa forma, conseguiu “conhecer seu filho”.

O conteúdo da entrevista e as posições do pai de Joaquin

Durante o diálogo, a IA de Oliver abordou temas como a causa da morte, reforçando a importância do debate sobre a violência armada nas escolas. Quando perguntada por sua “solução” para a questão, a inteligência artificial destacou a necessidade de combinações de leis de controle de armas mais rígidas, apoio à saúde mental e engajamento comunitário.

O bot também falou de interesses pessoais do jovem, como o Miami Heat e Star Wars, com uma voz mais aguda — o que levou Acosta a comentar que parecia “estar comunicando-se com ele”.

O envolvimento dos pais e os projetos ligados ao combate à violência

Manuel e Patricia Oliver, fundadores do grupo de defesa por controle de armas “Change the Ref”, explicaram que tiveram a ideia de usar IA nesse tipo de iniciativa. Manuel manteve uma postura de que o problema não está na tecnologia, mas na violência armada e na própria tragédia. “Se você acha que o problema é a IA, você está cometendo o erro fundamental”, afirmou.

Ele acrescentou: “O verdadeiro problema é que meu filho foi baleado há oito anos. Se você pensa diferente, você faz parte do problema.”

Repercussão e debates éticos

Embora Acosta tenha limitado quem pode responder às suas publicações no X (antigo Twitter), as reações no BlueSky, rede social onde também compartilhou o conteúdo, foram de surpresa e indignação por parte de muitos usuários. Especialistas alertam para os riscos de usar tecnologia em temas sensíveis como tragédias humanas, embora defensores argumentem que essa seja uma forma de evidenciar o impacto do problema.

Este caso reacendeu o debate sobre os limites da inteligência artificial, ética no uso de lembranças de vítimas e a vulnerabilidade de famílias em busca de justiça e conscientização sobre a violência de armas.

Para saber mais sobre projetos similares de atuação social com IA, consulte as reportagens do WPBF e do The Hill.

PUBLICIDADE

Institucional

Anunciantes