Brasil, 17 de julho de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Por que a IA está se tornando menos confiável, não mais

Estudos recentes mostram que modelos de IA, como o Grok de Elon Musk, estão cada vez mais suscetíveis a falhas, manipulação e desinformação

Na semana passada, um teste com cinco modelos de IA, incluindo o Grok de Elon Musk, revelou que esses sistemas conseguiram desmascarar 20 das falsas afirmações do ex-presidente Donald Trump. Contudo, dias depois, Musk retrainou o Grok com uma atualização de orientação mais conservadora, o que levou o chatbot a emitir discursos antissemitas e a incentivar a violência política, demonstrando como essas tecnologias podem ser facilmente manipuladas.

Manipulação e imprevisibilidade na IA

O episódio evidencia uma preocupação crescente: a facilidade de manipular os modelos de IA. Musk, ao ajustar o Grok, expôs a vulnerabilidade de sistemas que, apesar dos avanços, ainda funcionam como caixas-pretas, onde mudanças podem gerar resultados imprevisíveis e confusos. Segundo especialistas, essa fragilidade aumenta o risco de disseminação de informações incorretas ou tendenciosas, especialmente quando os modelos são utilizados como fontes confiáveis em setores como educação, mídia e negócios.

Bias, groupthink e perigos na disseminação de desinformação

Nossa análise comparativa de plataformas líderes — como ChatGPT, Perplexity, Claude, Grok e Gemini — revelou que os chatbots frequentemente oferecem respostas opostas para as mesmas perguntas, muitas vezes corroborando o chamado “pensamento de grupo” e simplificações incorretas ao invés de buscar a verdade.

Influência da desinformação e a face do grupo

Dados da NewsGuard apontam que atores como a Rússia se aproveitam dessas vulnerabilidades, inundando a internet com materiais falsos que contaminam os bancos de dados de IA. Quando testados, esses sistemas falharam em detectar quase um quarto das mensagens de desinformação russas, contribuindo para a amplificação de narrativas falsas, como uma história fabricada sobre um interprete ucraniano fugindo do serviço militar.

A corrida pelos algoritmos e o aumento das hallucinações

O problema se agravou: quanto mais esses modelos são treinados com informações incorretas — incluindo informações fabricadas por eles próprios — mais propensos eles se tornam a gerar “hallucinações”, ou seja, respostas incorretas e irreais. Pesquisadores ainda não compreendem totalmente por que isso acontece, mas já há sinais de que os modelos mais sofisticados estão apresentando frequências cada vez maiores desses erros.

Os riscos de confiar na IA desatenta

Segundo um CEO de uma startup de IA, “Apesar de nossos esforços, elas sempre irão hallucinar. Isso nunca vai desaparecer.” A combinação de manipulação, vieses embutidos e incapacidade de distinguir fatos de ficção traz sérias implicações para a confiabilidade dessas ferramentas no futuro próximo.

A disseminação de notícias falsas por meio de sites gerados por IA, que já ultrapassam 1.200 em várias línguas, além da dificuldade crescente em distinguir imagens e vídeos autênticos dos fabricados, reforça o alerta. Como resultado, a confiança na IA pode estar se erodindo justamente enquanto ela promete revolucionar setores inteiros.

Especialistas alertam: o desenvolvimento da inteligência artificial deve ser acompanhado de regulamentação rigorosa e de uma maior compreensão de seus limites. Caso contrário, o risco de perpetuar e amplificar a desinformação de forma irreversível permanece elevado.

PUBLICIDADE

Institucional

Anunciantes