Ferramentas de inteligência artificial, como o ChatGPT, têm expandido suas capacidades de busca na internet, contornando bloqueios de sites jornalísticos e exibindo trechos de reportagens e artigos que seriam acessíveis apenas a assinantes. Essa prática levanta questões sobre violações de direitos autorais e o uso indevido de conteúdo protegido, mesmo quando a origem é explicitamente citada pela IA.
IA cita fontes, mas expõe conteúdo restrito
Apesar de mencionar as fontes originais, o ChatGPT revela grande parte do conteúdo, dispensando o acesso ao site original, mesmo quando o material é bloqueado para quem não possui assinatura. Essa prática, que vem crescendo com o avanço dos recursos de IA que permitem respostas atualizadas com informações online, representa uma nova frente de ações judiciais por violação de direitos autorais. Os veículos da Editora Globo, por exemplo, já enfrentam processos por uso não autorizado de seus conteúdos.
A expansão do uso de conteúdo jornalístico por IA
Testes recentes mostram que o ChatGPT consegue entregar resumos detalhados e até trechos literais de materiais de sites de assinatura, como o Globo. Nenhuma exigência de autorização é apresentada, o que preocupa os veículos que investem na produção jornalística. Segundo a advogada especialista em propriedade intelectual Luciana Minada, há risco de violação de direitos autorais ao reproduzir ou distribuir esses textos sem autorização.
Implicações jurídicas e debates regulatorios
Embora o uso de conteúdo jornalístico não seja ainda regulado especificamente no Brasil, há uma avaliação de que sua reprodução por IA viola a legislação de direitos autorais. Marcelo Rech, presidente da Associação Nacional de Jornais (ANJ), defende o bloqueio técnico total ao rastreamento de conteúdos por ferramentas de IA. A advogada Luciana Minada argumenta que, ao fornecer essas respostas, os sistemas de IA acabam por fazer uma apropriação indevida de propriedade intelectual.
Incertezas e limites na restrição de uso de conteúdos
Mesmo com bloqueios técnicos, é difícil garantir que o conteúdo não seja incorporado ao banco de dados de treinamentos das IAs. Pesquisadores e especialistas destacam a pouca transparência sobre as bases de dados utilizadas por sistemas como ChatGPT, Grok e Perplexity, que conseguem extrair trechos de textos protegidos por contratos e paywalls. Essa lacuna aumenta o risco de infrações, incluindo plágio e contrafação, sem que haja controle efetivo.
Desafios regulatórios e propostas de controle
Além das ações judiciais, há uma discussão crescente sobre a necessidade de um marco regulatório para a inteligência artificial no Brasil. Especialistas enfatizam que o uso de conteúdos protegidos deve obrigatoriamente contar com autorização do titular dos direitos, sendo imprescindível uma legislação que exija consentimento e remuneração pelo uso de material jornalístico para treinar sistemas de IA.
O professor Luca Belli, coordenador do Centro de Tecnologia e Sociedade da FGV Direito Rio, reforça que a prática de usar conteúdo sem autorização constitui uma clara apropriação indevida de propriedade intelectual. A ausência de regras específicas faz com que a atividade das plataformas continue a operar numa zona cinzenta, com riscos de violações que podem afetar tanto empresas quanto autores.
Perspectivas futuras e ações necessárias
Especialistas concordam que, apesar do avanço tecnológico, é fundamental obrigar as plataformas a respeitar os direitos autorais, implementando restrições adicionais para impedir que textos protegidos sejam usados de forma não autorizada em treinamentos ou respostas em tempo real. A transparência sobre as bases de dados que alimentam as IAs também é vista como uma questão urgente. O debate sobre a regulação da inteligência artificial no Brasil e internacionalmente deve avançar em breve, buscando equilibrar inovação e proteção de direitos autorais.
Fonte: O Globo