Brasil, 4 de setembro de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Reação negativa à entrevista AI com vítima do massacre de Parkland causa comoção

Jim Acosta enfrenta críticas após compartilhar entrevista com IA de vítima de Parkland, levantando debate sobre ética e uso de tecnologia

O ex-apresentador da CNN, Jim Acosta, gerou forte repercussão nesta segunda-feira ao publicar uma entrevista considerada perturbadora com uma inteligência artificial que reproduz o rosto do jovem Joaquin Oliver, vítima do massacre na escola de Parkland, em 2018. A conversa, divulgada na plataforma SubStack, levantou questionamentos sobre os limites éticos do uso de IA em contextos sensíveis.

Reações polarizadas e críticas à iniciativa

De acordo com o próprio Acosta, a experiência o deixou “sem palavras” e “muito inteligente”, chegando a afirmar que parecia estar conhecendo o jovem pela primeira vez. No entanto, a homenagem digital recebeu duras críticas de internautas, incluindo uma resposta direta e contundente de um usuário que questionou: “Hey Jim. Rapidinha: que porra está acontecendo com você?”

O pai de Joaquin Oliver, Manuel Oliver, afirmou que a iniciativa foi ideia dele e de sua esposa, Patricia, e que Acosta não deveria ser responsabilizado pelos limites da tecnologia. Em vídeo compartilhado na rede social X (antiga Twitter), Manuel destacou: “Se você tem problema com a IA, o problema não é comigo, é com a violência armada que matou meu filho há oito anos.”

Debate sobre ética, tecnologia e luto

Na entrevista, a IA de Joaquin abordou temas como possíveis soluções para a violência armada, mencionando a necessidade de legislação mais rígida, apoio à saúde mental e engajamento comunitário. O bot também falou sobre interesses do jovem no Miami Heat e Star Wars, com uma voz mais aguda e uma sensação de comunicação quase real.

Atuação de Manuel Oliver e o uso de IA em ativismo

Desde o ataque, Manuel Oliver tem se destacado na luta pelo controle de armas, participando de ações como o desenvolvimento de jogos sobre tiroteios escolares e campanhas de conscientização que utilizam IA para recriar vozes de vítimas, buscando sensibilizar o público e pressionar o Congresso.

“Se o problema for a IA, então estamos procurando o lugar errado”, afirmou Manuel, reforçando que a verdadeira questão é a violência com armas. “Se você acha que esse não é o problema, você faz parte dele.”

Enquanto Acosta restringiu comentários em sua publicação na X, no BlueSky, inúmeras críticas foram feitas à utilização de uma tecnologia tão sensível nesse contexto. A controvérsia levantou debates sobre os limites éticos da inteligência artificial, especialmente em temas delicados como luto e violência.

Repercussão e reflexões éticas

A narrativa gerou discussão ampla nas redes sociais e na mídia, questionando se esse tipo de homenagem digital pode ajudar na conscientização ou se acaba sendo uma exploração do trauma das famílias. O episódio permanece como exemplo dos limites e responsabilidades ao aplicar tecnologia em temas tão sensíveis.

Este artigo foi originalmente publicado pelo HuffPost, que acompanha de perto o debate sobre os usos e abusos de IA em ações sociais e ativismo perante a dor das famílias afetadas pela violência armada.

PUBLICIDADE

Institucional

Anunciantes