Brasil, 13 de novembro de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Falsas informações geradas por IA prejudicam energia solar nos EUA

Empresa de Minnesota enfrenta cancelamentos de contratos após alegações falsas de acordo judicial promovidas por IA

Representantes da Wolf River Electric, companhia de energia solar em Minnesota, observam um aumento incomum nos cancelamentos de contratos ao fim de 2024. Clientes relataram desistir do serviço após buscas no Google mostrarem, indevidamente, que a empresa teria feito um acordo judicial por práticas enganosas, informação falsa disseminada por inteligência artificial.

IA e a disseminação de notícias falsas sobre a Wolf River Electric

Segundo a companhia, os clientes acessaram resultados de busca no Google contendo alegações falsas de um acordo judicial com o procurador-geral do estado. Apesar de nunca terem sido processados ou terem feito tais acordos, os resultados exibidos na pesquisa incluíam essa informação erroneamente gerada por tecnologia de IA do Google, o Gemini.

Justin Nielsen, fundador da Wolf River, afirma que a empresa investiu na construção de uma boa reputação, mas a visibilidade de notícias falsas, principalmente por IA, prejudicou sua imagem e faturamento. “Quando os clientes veem um alerta como esse, é praticamente impossível reconquistá-los”, lamenta Nielsen.

Processos por difamação ligados à inteligência artificial

Diante da situação, a Wolf River decidiu processar o Google por difamação, na tentativa de responsabilizar a gigante tecnológica pelos danos causados. A empresa acumulou perdas de US$ 388 mil em contratos cancelados e também relata prejuízo na conquista de novos clientes.

Essa ação faz parte de uma crescente onda de processos nos EUA, nos últimos dois anos, envolvendo difamação por conteúdo gerado por IA, que muitas vezes continuam a ser divulgados mesmo após notificação de seus responsáveis.

Desafios jurídicos e responsabilidade de plataformas

Especialistas, como Eugene Volokh, da UCLA, destacam que esses casos levantam questionamentos inéditos sobre responsabilidade. “Quem é o responsável por conteúdos prejudiciais criados por IA?”, questiona Volokh, apontando a dificuldade de atribuir culpa dentro de algoritmos complexos que “alucinam” informações falsas.

Na prática, a maioria dessas ações busca definir se o conteúdo produzido por IA deve ser considerado difamatório, principalmente quando não há intenção deliberada de prejudicar alguém, como explica a juíza Tracie Cason, em decisão relacionada a um caso de difamação por IA ao afirmar que a pessoa que lê uma informação tem de acreditar nela como verdadeira para que haja dano.

Casos recentes e impacto na reputação de empresas de tecnologia

O caso da Wolf River é um dos mais relevantes, pois a empresa conseguiu documentar perdas financeiras concretas, como a exclusão de contratos e prejuízos na captação de clientes. Entre os prejuízos, contabiliza-se US$ 25 milhões em vendas perdidas em 2024 e a busca por uma indenização de pelo menos US$ 110 milhões contra o Google, cujo processo ainda está aguardando decisão judicial.

De acordo com Vladimir Marchenko, CEO da Wolf River, empresas do setor avaliam que a possibilidade de um julgamento contra uma companhia privada por difamação por IA abriria precedentes perigosos, levando muitas a preferirem fechado acordos extrajudiciais para evitar riscos maiores.

O papel das plataformas e os riscos futuros

O porta-voz do Google, José Castañeda, afirmou que erros podem acontecer em qualquer tecnologia nova, e que a empresa age rapidamente assim que os problemas são identificados. Ainda assim, pesquisas no Google indicam que clientes da Wolf River continuam encontrando referências a um suposto processo judicial que nunca ocorreu.

Especialistas jurídicos alertam que, embora casos de difamação por IA ainda não tenham ido a julgamento, a tendência é que esses processos se multipliquem e ressaltem a necessidade de regulamentação mais clara sobre a responsabilidade de plataformas de tecnologia na disseminação de informações falsas, sobretudo quando geradas por algoritmos e modelos de IA que “alucinariam” dados incorretos de forma deliberada ou por viés.

Para Nina Brown, professora de direito na Universidade de Syracuse, o risco maior é o impacto na reputação de empresas e indivíduos, além do potencial de uma enxurrada de processos caso se reconheça a responsabilidade efetiva das plataformas por conteúdos difamatórios automatizados.

O episódio da Wolf River destaca ainda os desafios que o avanço de IA traz para o setor jurídico, que busca estabelecer limites e responsabilidades claras diante de um cenário de crescente automação e “alucinações” das máquinas.

Fonte: Gazeta O Globo

tecnologia, inteligência artificial, difamação, responsabilidade legal, IA, empresas de tecnologia

PUBLICIDADE

Institucional

Anunciantes