Na segunda-feira, o ex-âncora da CNN Jim Acosta publicou uma entrevista considerada bizarra e polêmica com uma inteligência artificial (IA) que simula Joaquin Oliver, vítima do tiroteio em Parkland, ocorrido em 2018. A conversa, divulgada na plataforma SubStack, causou revolta nas redes sociais, incluindo críticas severas de usuários na X (antiga Twitter) e Bluesky.
O que aconteceu na entrevista com a IA de Joaquín Oliver
Na entrevista, a IA — criada pelos pais de Joaquin Oliver para homenagear o filho — revelou suas opiniões sobre as causas da violência armada, enfatizando a necessidade de leis mais rígidas, apoio psicológico e engajamento comunitário. Ao falar do seu interesse pelo Miami Heat e Star Wars, o bot exibia uma tonalidade mais elevada e indícios de tentativa de personalização, como a afirmação de que sentia que estava comunicando com o jovem.
Jim Acosta descreveu a conversa como “extraordinária” e “profundamente reveladora”, dizendo que parecia a primeira vez que realmente conheceu Joaquin. Segundo o próprio ex-âncora, a tecnologia deixou-o “sem palavras”.
Reações e críticas às ações de Acosta
Apesar do impacto emocional, a iniciativa foi duramente criticada por internautas. Um usuário chegou a responder: “Ei, Jim. rápida pergunta. que diabo há de errado com você?”. Além disso, a reação pública foi dividida, com muitos criticando o uso do AI para fins sensíveis, sobretudo por parte de figuras públicas.
Manuel Oliver, pai de Joaquin e fundador do grupo de defesa por controle de armas “Change the Ref”, afirmou que a IA foi ideia dele e da esposa, Patricia. Em um vídeo compartilhado na X, Manuel destacou que Acosta não deve ser responsabilizado pelo que a tecnologia conseguiu fazer, mas reforçou a dor e a raiva por ver o filho vítima de violência há oito anos.
Questões éticas e o impacto da tecnologia
O debate também se voltou para as implicações éticas de recriar vozes e personalidades de vítimas de tragédias, alimentando questões sobre respeitar a memória e o sofrimento de familiares. “Se sua problema é com a IA, o problema realmente é outro”, afirmou Manuel, ressaltando que o foco deve estar na violência armada.
Acosta, por sua vez, restringiu quem podia responder às suas publicações na X, mas na plataforma Bluesky críticas foram feitas por diversos usuários, questionando o uso de IA nesse contexto delicado.
Compromisso dos ativistas contra a violência armada
Manuel Oliver e sua esposa continuam ativos na luta por mudanças na legislação, envolvendo-se em projetos controversos, como um videogame sobre um tiroteio escolar, peças teatrais e o uso de IA para recriar vozes de vítimas em campanhas junto ao Congresso. Segundo Manuel, essas ações visam chamar atenção para o problema real: “O verdadeiro problema é que meu filho foi morto há oito anos, e se você acha que isso não é questão, você faz parte do problema.”
Perspectivas futuras e reflexões
O episódio levanta debates sobre os limites éticos do uso de inteligência artificial em campanhas de sensibilização, especialmente relacionadas a tragédias humanas. Especialistas e defensores dos direitos das famílias de vítimas questionam se a tecnologia deve ser usada para recriar memórias ou se ela acaba trivializando a dor. As opiniões continuam divididas, mas o caso reforça a necessidade de uma discussão mais ampla sobre ética e limites na era digital.