O ex-apresentador da CNN, Jim Acosta, gerou forte repercussão nesta segunda-feira ao publicar uma entrevista considerada perturbadora com uma inteligência artificial que reproduz o rosto do jovem Joaquin Oliver, vítima do massacre na escola de Parkland, em 2018. A conversa, divulgada na plataforma SubStack, levantou questionamentos sobre os limites éticos do uso de IA em contextos sensíveis.
Reações polarizadas e críticas à iniciativa
De acordo com o próprio Acosta, a experiência o deixou “sem palavras” e “muito inteligente”, chegando a afirmar que parecia estar conhecendo o jovem pela primeira vez. No entanto, a homenagem digital recebeu duras críticas de internautas, incluindo uma resposta direta e contundente de um usuário que questionou: “Hey Jim. Rapidinha: que porra está acontecendo com você?”
O pai de Joaquin Oliver, Manuel Oliver, afirmou que a iniciativa foi ideia dele e de sua esposa, Patricia, e que Acosta não deveria ser responsabilizado pelos limites da tecnologia. Em vídeo compartilhado na rede social X (antiga Twitter), Manuel destacou: “Se você tem problema com a IA, o problema não é comigo, é com a violência armada que matou meu filho há oito anos.”
Debate sobre ética, tecnologia e luto
Na entrevista, a IA de Joaquin abordou temas como possíveis soluções para a violência armada, mencionando a necessidade de legislação mais rígida, apoio à saúde mental e engajamento comunitário. O bot também falou sobre interesses do jovem no Miami Heat e Star Wars, com uma voz mais aguda e uma sensação de comunicação quase real.
Atuação de Manuel Oliver e o uso de IA em ativismo
Desde o ataque, Manuel Oliver tem se destacado na luta pelo controle de armas, participando de ações como o desenvolvimento de jogos sobre tiroteios escolares e campanhas de conscientização que utilizam IA para recriar vozes de vítimas, buscando sensibilizar o público e pressionar o Congresso.
“Se o problema for a IA, então estamos procurando o lugar errado”, afirmou Manuel, reforçando que a verdadeira questão é a violência com armas. “Se você acha que esse não é o problema, você faz parte dele.”
Enquanto Acosta restringiu comentários em sua publicação na X, no BlueSky, inúmeras críticas foram feitas à utilização de uma tecnologia tão sensível nesse contexto. A controvérsia levantou debates sobre os limites éticos da inteligência artificial, especialmente em temas delicados como luto e violência.
Repercussão e reflexões éticas
A narrativa gerou discussão ampla nas redes sociais e na mídia, questionando se esse tipo de homenagem digital pode ajudar na conscientização ou se acaba sendo uma exploração do trauma das famílias. O episódio permanece como exemplo dos limites e responsabilidades ao aplicar tecnologia em temas tão sensíveis.
Este artigo foi originalmente publicado pelo HuffPost, que acompanha de perto o debate sobre os usos e abusos de IA em ações sociais e ativismo perante a dor das famílias afetadas pela violência armada.