No início da manhã de 28 de agosto, um estacionamento silencioso em um campus universitário no Missouri se transformou em um cenário de vandalismo violento. Em apenas 45 minutos, 17 carros tiveram janelas quebradas, espelhos danificados, limpadores arrancados e chassis amassados, causando danos que somam dezenas de milhares de dólares.
Após um mês de investigação, a polícia coletou evidências que incluíram impressões de sapatos, depoimentos de testemunhas e vídeos de câmeras de segurança. Mas foi uma suposta confissão ao ChatGPT que levou às acusações contra Ryan Schaefer, um estudante de 19 anos.
Em conversas com o chatbot de IA logo após o incidente, Schaefer descreveu o caos à aplicação em seu telefone e perguntou: “quão ferrado estou, mano?… E se eu destrui o carro de várias pessoas?” Trata-se do primeiro caso em que alguém se incrimina através da tecnologia, com a polícia citando o “diálogo preocupante” em um relatório detalhando as acusações contra Schaefer.
Menos de uma semana depois, o ChatGPT foi novamente mencionado em um depoimento, desta vez em um crime de maior repercussão. Jonathan Rinderknecht, de 29 anos, foi preso por supostamente ter iniciado o incêndio Palisades, que destruiu milhares de casas e negócios e matou 12 pessoas na Califórnia em janeiro, após solicitar ao aplicativo de inteligência artificial que gerasse imagens de uma cidade em chamas.
Esses dois casos provavelmente não serão os últimos em que a IA implicará pessoas em crimes, com o presidente da OpenAI, Sam Altman, afirmando que não existem proteções legais para as conversas dos usuários com o chatbot. Ele não apenas destaca preocupações com a privacidade da tecnologia em crescimento, mas também as informações íntimas que as pessoas estão dispostas a compartilhar com ela.
“As pessoas falam sobre as questões mais pessoais de suas vidas para o ChatGPT,” disse ele em um podcast no início deste ano. “As pessoas o usam, especialmente os mais jovens, como um terapeuta, um coach de vida, enfrentando problemas de relacionamento… E, neste momento, se você conversar com um terapeuta, advogado ou médico sobre esses problemas, há um privilégio legal para isso.”
O impacto da inteligência artificial no comportamento humano
A versatilidade dos modelos de inteligência artificial como o ChatGPT significa que as pessoas podem utilizá-los para tudo, desde editar fotos da família até decifrar documentos complexos como propostas de empréstimos bancários ou contratos de aluguel – todos contendo informações altamente pessoais. Um estudo recente da OpenAI revelou que os usuários do ChatGPT estão cada vez mais recorrendo a ele para obter conselhos médicos, ajuda nas compras e até mesmo para jogos de interpretação de papéis.
Outros aplicativos de IA estão explicitamente se posicionando como terapeutas virtuais ou parceiros românticos, com poucas das salvaguardas utilizadas por empresas mais estabelecidas, enquanto serviços ilícitos na dark web permitem que as pessoas tratem a IA não só como confidente, mas também como cúmplice.
A quantidade de dados compartilhados é impressionante – tanto para fins de aplicação da lei quanto para criminosos que podem tentar explorá-los. Quando a Perplexity lançou um navegador web alimentado por IA no início deste ano, pesquisadores de segurança descobriram que hackers poderiam sequestrá-lo para obter acesso aos dados de um usuário, que poderiam ser utilizados para extorsão.
Preocupações com privacidade e o futuro da IA
As empresas que controlam essa tecnologia estão também buscando aproveitar esse novo tesouro de dados íntimos. A partir de dezembro, a Meta começará a usar as interações das pessoas com suas ferramentas de IA para exibir anúncios direcionados em suas plataformas como Facebook, Instagram e Threads.
As conversas de voz e textos trocados com a IA serão analisados para aprender mais sobre as preferências pessoais dos usuários e quais produtos podem ser do seu interesse. E não há como optar por não participar disso.
“Por exemplo, se você conversa com a inteligência artificial da Meta sobre trilhas, podemos descobrir que você está interessado em hiking,” disse a Meta em um post de blog anunciando a atualização. “Consequentemente, você pode começar a ver recomendações para grupos de hiking, postagens de amigos sobre trilhas ou anúncios para botas de hiking.”
Embora isso possa parecer relativamente benigno, estudos de caso sobre anúncios direcionados exibidos por motores de busca e redes sociais mostram quão destrutivos eles podem ser. Pessoas que buscam termos como “preciso de ajuda financeira” têm recebido anúncios para empréstimos predatórios, e jogadores com problemas têm sido alvo de cassinos online com ofertas de giros grátis.
O CEO da Meta, Mark Zuckerberg, está bem ciente de quanta informação privada será coletada com a nova política de anúncios de IA. Em abril, ele disse que os usuários poderão permitir que a inteligência artificial da Meta “saiba muito sobre você, e sobre as pessoas que você valoriza, em nossos aplicativos”. Ele é também a mesma pessoa que uma vez descreveu os usuários do Facebook como “idiotas” por confiarem nele com seus dados.
“Goste ou não, a Meta não se trata realmente de conectar amigos em todo o mundo. Seu modelo de negócios baseia-se quase inteiramente na venda de espaço publicitário direcionado em suas plataformas,” escreveu Pieter Arntz, da empresa de segurança cibernética Malwarebytes, logo após o anúncio da Meta.
“A indústria enfrenta grandes desafios éticos e de privacidade. Marcas e provedores de IA devem equilibrar personalização com transparência e controle do usuário, especialmente à medida que as ferramentas de IA coletam e analisam dados comportamentais sensíveis.”
À medida que a utilidade da IA aprofunda a troca entre privacidade pessoal e conveniência, nosso relacionamento com a tecnologia é mais uma vez colocado sob escrutínio. De maneira semelhante ao que o escândalo da Cambridge Analytica forçou as pessoas a refletirem sobre como estavam usando sites de mídia social como o Facebook, essa nova tendência de coleta de dados, assim como os casos de Schaefer e Rinderknecht, podem levar a privacidade de volta ao topo da agenda tecnológica.
Menos de três anos após o lançamento do ChatGPT, já existem mais de um bilhão de pessoas usando aplicativos de IA. Esses usuários são frequentemente sujeitos a exploração por parte de empresas tecnológicas predatórias, anunciantes e até mesmo investigadores criminais.
Há um velho ditado que diz que se você não está pagando por um serviço, então você não é o cliente, mas o produto. Nesta nova era de IA, esse ditado pode precisar ser reescrito para substituir a palavra “produto” por “presa”.