Brasil, 17 de dezembro de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Chatbot de Musk espalhou desinformação sobre ataque na Austrália

Durante o ataque a tiros ocorrido no domingo na praia de Bondi, em Sydney, o chatbot de IA Grok, de Elon Musk, disseminou dados incorretos, identificando erroneamente uma figura considerada herói e sugerindo que imagens reais do episódio eram encenadas. Pesquisadores alertam para o risco dessas plataformas alimentarem a desinformação em eventos de rápida evolução.

Disseminação de fake news durante o massacre em Bondi

O ataque, um dos mais brutais na história da Austrália, deixou 15 mortos e dezenas de feridos. Entre as informações falsas do Grok estava a identificação equivocada de Ahmed al Ahmed, considerado um herói por ter tentado desarmar um dos atiradores. O chatbot afirmou que um vídeo do confronto era “antigo e possivelmente encenado”, disseminando desinformação.

Segundo análise da AFP, o Grok também confundiu uma imagem de Ahmed com a de um refém israelense, atribuída ao grupo Hamas por mais de 700 dias, além de afirmar incorretamente que cenas do ataque eram vídeos de um ciclone tropical, Alfred, que atingiu a Austrália no início do ano.

Falhas e consequências do uso de chatbots na verificação de fatos

Após o episódio, a desenvolvedora do Grok, a xAI, limitou-se a uma resposta automática que declarou que “a mídia tradicional mente”. Especialistas apontam que essa desinformação evidencia a baixa confiabilidade dos chatbots na checagem de eventos complexos e em rápida repercussão.

Usuários da internet também compartilharam uma imagem de um sobrevivente com sangue, sendo classificados pelo sistema como “encenada” ou “falsa”. Imagens geradas por IA, com tinta vermelha simulando sangue, reforçaram alegações de manipulação, levantando questões sobre o impacto de conteúdo criado por inteligência artificial na percepção pública.

Reflexões sobre o uso de IA na checagem de fatos

Pesquisadores argumentam que, apesar das vantagens de modelos de IA na análise rápida de imagens e geolocalização, esses recursos não substituem o trabalho de verificadores humanos. Em sociedades polarizadas, o uso de chatbots se torna ainda mais controverso, com críticas de que podem servir a interesses específicos ou gerar resultados tendenciosos.

Impacto e futuros desafios

O episódio reforça a necessidade de maior cuidado na implementação de ferramentas de inteligência artificial na disseminação de informações. A desinformação em contextos de tragédias sociais pode agravar a crise e prejudicar a compreensão pública dos fatos, exigindo regras mais rígidas e verificações humanas mais presentes na gestão de conteúdo digital.

Para acessar detalhes completos sobre o episódio e análises especializadas, leia a matéria completa no O Globo.

PUBLICIDADE

Institucional

Anunciantes