Brasil, 23 de dezembro de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Riscos ocultos ao compartilhar dados em plataformas de IA

Plataformas como ChatGPT, Gemini e outras de inteligência artificial têm se tornado confiáveis para muitas pessoas, atuando como confidentes, médicos e psicólogos. Elas se tornaram espaços onde usuários compartilham dados pessoais, incluindo questões emocionais, financeiras e de saúde. No entanto, recentes investigações revelaram riscos ocultos ligados à privacidade dessas plataformas, especialmente com o uso de extensões de navegador que interceptam e vendem esses dados.

Extensão de navegador captura e vende conversas com IA

Uma investigação da empresa de segurança KOI apontou que a extensão gratuita Urban VPN Proxy, para Chrome, captura conversas de até dez plataformas, incluindo ChatGPT, Claude, Gemini, Microsoft Copilot, entre outras. A coleta de dados, ativada por padrão, ocorre continuamente, mesmo com a VPN desconectada, e inclui mensagens, respostas, metadados e informações do modelo de IA utilizado, sem opções visíveis para desativação.

“Qualquer usuário que utilize plataformas como ChatGPT enquanto o Urban VPN estava instalado desde julho deve presumir que suas conversas foram compartilhadas com terceiros”, afirmou Joan Cwaik, especialista em tecnologia e professor universitário. Segundo ele, essa prática é comum neste tipo de extensão, que possui permissões para interceptar tráfego e ler conteúdos de páginas.

Venda de dados e riscos para a privacidade

Os dados coletados, que incluem informações sensíveis como dados médicos, financeiros e códigos proprietários, são vendidos a anunciantes por empresas afiliadas, como a BiScience, investigada por sua prática de venda de informações. “A BiScience passou de coletar apenas navegação para armazenar conversas completas de IA, aumentando a sensibilidade dos dados utilizados”, explicou o relatório da KOI.

Joan Cwaik explicou que essa cadeia de coleta e venda de dados é operacional e legal, dado que as permissões necessárias já existem nas extensões. A prática, porém, expõe os usuários a riscos de vazamento e uso indevido de informações pessoais.

Uso de dados para treinamento e proteção das informações

Embora as versões gratuitas de plataformas de IA frequentemente utilizem os dados para treinar modelos, as versões corporativas ou empresariais adotam regras mais rígidas de proteção à privacidade. Segundo Juan Pablo Cosentino, da IAE Business School, “se a ferramenta é gratuita, é provável que seus dados sejam utilizados para treinamento”.

Além disso, muitos usuários desconhecem que ao compartilhar informações na IA, podem estar contribuindo para melhorar o sistema, devido ao padrão de coleta, a menos que desativem manualmente essa opção. Os termos de uso de plataformas como o ChatGPT deixam claro que os dados podem ser utilizados para aprimorar os serviços, o que gera preocupações quanto à confidencialidade.

Perigos de uso indiscriminado de IA no ambiente de trabalho

Especialistas alertam sobre o aumento do uso de ferramentas de IA sem aprovação das empresas, o que aumenta o risco de vazamento de informações confidenciais. Dados de um estudo da Microsoft de outubro de 2025 indicaram que 71% dos funcionários utilizam ilegalmente esses recursos, e 77% compartilham dados sensíveis com sistemas como o ChatGPT.

Matias Hilaire, CEO da The App Master, explicou que o uso não autorizado de IA pode comprometer a segurança empresarial, pois funcionários colam documentos sensíveis em chats públicos ou contas gratuitas. “É fundamental que companhias tenham políticas claras de uso de IA e que supervisões sejam feitas para evitar vazamentos”, ressaltou.

Implicações para a privacidade e a segurança

O risco de vazamento de dados, tanto pessoais quanto corporativos, é uma preocupação crescente. Mesmo com as ressalvas de plataformas que afirmam não usar dados de contas pagas para treinamento, o fato é que muitas informações sensíveis podem estar expostas em versões gratuitas ou por extensões de terceiros.

A recomendação dos especialistas é que os usuários atentem às permissões concedidas às extensões, desativem funções de coleta de dados e adotem práticas de segurança digital mais rigorosas. As empresas, por sua vez, devem estabelecer políticas que restrinjam o compartilhamento de informações confidenciais por meio dessas ferramentas.

Para saber mais detalhes, acesse a matéria completa no Globo.

PUBLICIDADE

Institucional

Anunciantes