No início da manhã de 28 de agosto, um estacionamento silencioso em um campus universitário no Missouri se transformou em um cenário de vandalismo violento. Em apenas 45 minutos, 17 veículos ficaram com janelas quebradas, espelhos danificados, limpadores arrancados e chapas amassadas, totalizando danos que somam dezenas de milhares de dólares.
Após um mês de investigações, a polícia coletou evidências que incluíam impressões de tênis, depoimentos de testemunhas e gravações de câmeras de segurança. No entanto, foi uma suposta confissão ao ChatGPT que levou à acusação do estudante de 19 anos Ryan Schaefer.
Em conversas com o chatbot da IA logo após o incidente, Schaefer descreveu o caos a partir do seu celular e perguntou: “quão ferrado eu estou, mano?… E se eu destruísse vários carros?”. Parece ser o primeiro caso em que alguém se incrimina através da tecnologia, com a polícia citando o “diálogo preocupante” em um relatório detalhando as acusações contra ele.
Implicações da inteligência artificial em crimes
Menos de uma semana depois, o ChatGPT foi novamente mencionado em um depoimento, desta vez por um crime muito mais notório. Jonathan Rinderknecht, de 29 anos, foi preso por supostamente iniciar o incêndio Palisades, que destruiu milhares de casas e negócios e matou 12 pessoas na Califórnia em janeiro, após pedir ao aplicativo de inteligência artificial que gerasse imagens de uma cidade em chamas.
Esses dois casos provavelmente não serão os últimos em que a IA implicará indivíduos em crimes. O diretor da OpenAI, Sam Altman, afirmou que não existem proteções legais para as conversas dos usuários com o chatbot. Isso não apenas destaca preocupações de privacidade em relação à tecnologia emergente, mas também revela informações íntimas que as pessoas estão dispostas a compartilhar com ela.
“As pessoas falam sobre as questões mais pessoais de suas vidas para o ChatGPT”, disse ele em um podcast no início do ano. “As pessoas o usam, especialmente os jovens, como terapeuta ou coach de vida, abordando problemas de relacionamento… E agora, se você conversa com um terapeuta, advogado ou médico sobre esses problemas, há um privilégio legal para isso.”
O uso de dados pessoais por empresas de tecnologia
A versatilidade de modelos de inteligência artificial como o ChatGPT permite que os usuários os utilizem para tudo, desde edição de fotos familiares privadas até a análise de documentos complexos, como ofertas de empréstimos bancários ou contratos de aluguel – todos os quais contêm informações altamente pessoais. Umestudo recente da OpenAI revelou que os usuários estão cada vez mais recorrendo ao ChatGPT para conselhos médicos, compras e até mesmo interpretação de papéis.
Outros aplicativos de IA estão se apresentando explicitamente como terapeutas virtuais ou parceiros românticos, com poucas medidas de proteção em comparação a empresas mais estabelecidas, enquanto serviços ilícitos na dark web permitem que pessoas tratem a IA não apenas como confidente, mas como cúmplice.
A quantidade de dados compartilhados é impressionante – tanto para fins de aplicação da lei quanto para criminosos que possam buscar explorá-los. Quando a Perplexity lançou um navegador web com inteligência artificial no início deste ano, pesquisadores de segurança descobriram que hackers poderiam sequestrá-lo para acessar os dados de um usuário, que poderiam então ser usados para extorsão.
Questões éticas e desafios de privacidade
As empresas controladoras dessa tecnologia também buscam aproveitar esse novo volume de dados profundamente íntimos. A partir de dezembro, a Meta começará a usar as interações de pessoas com suas ferramentas de IA para veicular anúncios direcionados no Facebook, Instagram e Threads.
Conversas por voz e trocas de textos com inteligência artificial serão analisadas para aprender mais sobre as preferências pessoais do usuário e os produtos que ele pode ter interesse em comprar. E atualmente não há como optar por não participar desse processo.
Essa prática pode parecer relativamente inofensiva, mas estudos de caso sobre anúncios direcionados servidos por motores de busca e redes sociais mostram como eles podem ser destrutivos. Pessoas que buscam termos como “preciso de ajuda financeira” têm recebido anúncios de empréstimos predatórios, e jogadores problemáticos têm sido alvo de casinos online que oferecem rodadas grátis.
O CEO da Meta, Mark Zuckerberg, está ciente de quanta informação privada será coletada sob a nova política de anúncios de IA. Em abril, ele disse que os usuários poderão permitir que a Meta AI “saiba muito sobre você e as pessoas que você se importa, em todos os nossos aplicativos”. Ele é também a mesma pessoa que uma vez descreveu os usuários do Facebook como “idiotas” por confiarem nele com seus dados.
“Gostando ou não, a Meta não se trata realmente de conectar amigos ao redor do mundo. Seu modelo de negócios é quase inteiramente baseado na venda de espaço publicitário direcionado em suas plataformas”, escreveu Pieter Arntz, da empresa de segurança cibernética Malwarebytes, logo após o anúncio da Meta.
A relação entre privacidade e facilidade
A indústria enfrenta grandes desafios éticos e de privacidade. Marcas e provedores de IA devem equilibrar a personalização com a transparência e o controle do usuário, especialmente à medida que ferramentas de IA coletam e analisam dados comportamentais sensíveis. À medida que a utilidade da IA se aprofunda, a troca entre privacidade pessoal e conveniência está novamente sob escrutínio, de maneira semelhante ao escândalo doCambridge Analytica, que forçou as pessoas a enfrentarem como usavam sites de redes sociais como o Facebook.
Menos de três anos após o lançamento do ChatGPT, agora há mais de um bilhão de pessoas que utilizam aplicativos de IA independentes. Esses usuários são frequentemente sujeitos involuntários à exploração por empresas de tecnologia predatórias, anunciantes e até investigadores criminais.
Um antigo ditado diz que se você não está pagando por um serviço, você não é o cliente, mas o produto. Nesta nova era da IA, essa frase pode precisar ser reescrita para substituir a palavra produto por presa.