A crescente adoção de assistentes de inteligência artificial (IA) para obter informações e atualizações de notícias está gerando preocupações significativas. Um novo estudo da União Europeia de Radiodifusão (EBU) e da BBC revelou que esses assistentes frequentemente distorcem o conteúdo das notícias, apresentando erros em quase metade de suas respostas. Este dado alarmante coloca em cheque a confiabilidade dessas ferramentas utilizadas por milhões de pessoas para se manter informado.
Um panorama preocupante sobre a precisão da informação
A pesquisa internacional examinou 3.000 respostas dadas por assistentes de IA renomados, como ChatGPT, Copilot, Gemini e Perplexity, em 14 idiomas. O foco do estudo estava na precisão, na fonte das informações e na capacidade de distinguir entre opinião e fato. O resultado foi alarmante: 45% das respostas apresentaram pelo menos um erro significativo, enquanto 81% mostraram algum tipo de falha. Isso suscita um debate importante sobre o papel da IA na disseminação de informações.
Impactos da desinformação gerada por assistentes de IA
A pesquisa destacou que um terço das respostas dos assistentes de IA continha erros graves de atribuição, como informações faltantes, enganosas ou incorretas. O assistente Gemini, da Google, se destacou negativamente, apresentando 72% de suas respostas com problemas de atribuição. Em contraste, outros assistentes ficaram abaixo de 25% nesse quesito.
Além dos problemas de atribuição, a precisão das informações também foi examinada. A pesquisa descobriu que 20% das respostas apresentavam informações desatualizadas ou incorretas. Exemplos notáveis incluíram afirmações erradas sobre mudanças em leis e relatórios sobre o Papa Francisco, que foram divulgados meses após sua morte.
Respostas a um chamado à responsabilidade
Em resposta ao estudo, a Gemini afirmou, em seu site, que aprecia feedbacks com o objetivo de melhorar a plataforma. Por outro lado, empresas como OpenAI e Microsoft reconheceram que “alucinações” – momentos em que a IA gera informações incorretas devido à falta de dados ou erro na interpretação – constitui um problema em que estão trabalhando. A Perplexity, por sua vez, afirma ter uma precisão de 93,9% em suas respostas no modo “Deep Research”.
A crescente confiança nos assistentes de IA
Com a mudança no comportamento dos usuários, onde assistentes de IA estão começando a substituir motores de busca tradicionais na busca de notícias, a EBU alerta que isso pode minar a confiança do público nas informações. “Quando as pessoas não sabem em quem confiar, acabam não confiando em nada, e isso pode prejudicar a participação democrática”, declarou Jean Philip De Tender, Diretor de Mídia da EBU.
Uso de assistentes de IA entre consumidores de notícias
O relatório posteriormente revela que cerca de 7% de todos os consumidores de notícias online e 15% dos jovens com menos de 25 anos estão utilizando esses assistentes como fonte principal de notícias. Esta estatística aponta para uma tendência crescente entre as gerações mais jovens, que podem ser mais suscetíveis a desinformação.
O chamado para responsabilidade das empresas de IA
Com base nos achados do estudo, foi feita uma convocação para que as empresas desenvolvedoras de assistentes de IA sejam responsabilizadas pela precisão de suas respostas, especialmente em questões relacionadas às notícias. É crucial que as organizações adotem medidas que garantam que suas ferramentas ofereçam informações corretas e confiáveis ao público.
À medida que a tecnologia avança e a presença da IA se torna cada vez mais comum em nosso cotidiano, a responsabilidade pela veracidade das informações que consumimos é um fator crucial que não pode ser ignorado. O futuro da informação pode depender da abordagem que essas empresas adotarem em relação aos desafios apontados por este recente estudo.