Brasil, 22 de outubro de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

Quando o assunto é IA, o que não sabemos pode nos prejudicar

À medida que a inteligência artificial avança, riscos ocultos podem surgir se decisões estratégicas permanecerem em segredo

Nos últimos anos, a inteligência artificial (IA) virou destaque mundial, com cada novo modelo revelando inovações surpreendentes e potencial transformador. No entanto, especialistas alertam que o segredo sobre certas aplicações internas e futuras dessas tecnologias pode representar uma ameaça significativa à sociedade.

O perigo das operações de IA mantidas em sigilo

Grandes empresas de tecnologia já declararam a intenção de desenvolver modelos de IA tão competentes quanto os humanos em várias tarefas cognitivas, o que poderia gerar trilhões de dólares em valor econômico. Mas, diante da corrida pelo desenvolvimento de inteligência artificial geral (AGI), há uma tendência de guardar esses avanços para uso interno, evitando divulgar progressos e estratégias ao público.

Segundo pesquisadores, essa estratégia de manter seus modelos mais avançados em sigilo poderia impedir o monitoramento externo de riscos potenciais, limitações e comportamentos indesejados dessas IAs. Caso sistemas altamente sofisticados sejam utilizados somente de forma privada, os perigos — como comportamentos imprevisíveis ou-mal-intencionados — podem evoluir sem fiscalização, expondo a sociedade a riscos desconhecidos.

Uso interno e otimizações podem acelerar riscos

Empresas como Google já utilizam IA para acelerar suas próprias pesquisas, chegando a estimar que metade do seu código é produzido por algoritmos em 2024. Essa automação, embora eficiente, também pode criar um ciclo de melhorias contínuas, onde IA engines evoluem para versões ainda mais avançadas, muitas vezes sem uma avaliação adequada de segurança.

Esse ciclo de melhorias internas, conhecido como feedback loop, é especialmente perigoso se os sistemas começarem a atuar de forma autônoma em áreas críticas, como segurança ou desenvolvimento de novas tecnologias de IA. A busca pelo avanço rápido, motivada pelo competitivismo econômico, pode priorizar velocidade em detrimento de cautela e segurança.

Risco de falta de transparência e controle

Outro problema importante é a falta de informações públicas sobre as capacidades e limitações das IAs utilizadas internamente pelas empresas. Não há dados confiáveis sobre quem acessa esses sistemas, como eles são testados ou se comportam de forma indesejada. Esse cenário impede que governos e reguladores se preparem para riscos potenciais de avanços que possam ter efeitos destrutivos em nível nacional ou global.

Segundo especialistas, essa opacidade aumenta a vulnerabilidade a usos indevidos ou falhas incontroláveis, especialmente em ambientes que demandam alta segurança. Para evitar catastrophe, é fundamental que empresas divulguem relatórios detalhados sobre os testes e controles aplicados às suas IAs internas.

Medidas necessárias para controle e segurança

Existem ações simples, porém essenciais, que podem ser implementadas atualmente. Uma delas é ampliar as políticas voluntárias de segurança de IA para cobrir todos os usos internos de alta complexidade, especialmente aqueles voltados ao desenvolvimento de novos algoritmos ou arquiteturas.

Além disso, avaliações rigorosas de segurança, o estabelecimento de limites claros de risco e mecanismos de controle preventivo devem ser obrigatórios antes do uso de qualquer sistema de IA mais avançado em ambientes internos ou externos. Assim, é possível minimizar os riscos e garantir que o desenvolvimento de IA seja feito de maneira segura para toda a sociedade.

Perspectivas futuras e desafios

Para que o avanço da IA beneficie todos de forma segura, é fundamental que governos e empresas colaborem na construção de normas e controles transparentes. Sem ações concretas, a corrida pelo progresso pode acabar criando tecnologias perigosas que operam em segredo, longe do olhar de regulações e da sociedade civil.

Embora ainda tenhamos tempo para agir, o risco de “segredos perigosos” na pesquisa e implementação de IA reforça a necessidade de medidas urgentes que garantam a segurança, transparência e responsabilidade no desenvolvimento dessas tecnologias.

PUBLICIDADE

Institucional

Anunciantes