O relatório “AI 2027”, publicado pela organização sem fins lucrativos AI Futures, imagina um futuro distópico para a inteligência artificial, com impactos que podem ameaçar instituições e a sociedade. A análise, que tem ganhado destaque entre especialistas e autoridades, prevê que, em até dois anos, modelos avançados de IA ultrapassar humanos em diversas tarefas, enquanto, no pior cenário, a tecnologia poderia desencadear uma corrida armamentista e erosão institucional.
Previsões alarmantes e o objetivo de estimular o debate sobre IA
O documento aponta que o avanço descontrolado da IA pode levar a uma revolução no mercado de trabalho, com automação da maioria dos empregos administrativos, além de um aumento da desigualdade social e crises políticas globais. Segundo Jonas Vollmer, diretor de operações do AI Futures, o objetivo do relatório não é gerar pânico, mas estimular reflexões essenciais sobre a governança da tecnologia. “Queremos que os formuladores de políticas, empresas e sociedade discutam medidas para evitar os piores desfechos”, afirma.
Recomendações para mitigar os riscos da IA
Transparência e segurança
Entre as principais recomendações, Vollmer destaca a necessidade de maior transparência por parte das empresas desenvolvedoras. Isso inclui a publicação de “model specs”, documentos que detalham o funcionamento dos sistemas de IA e seus princípios de treinamento, considerados uma espécie de “constituição” dos modelos. Além disso, é essencial que as empresas divulguem relatórios públicos de segurança, explicando os riscos e as razões de acreditarem que seus sistemas estão sob controle.
Proteção a denunciantes e coordenação internacional
Outra proposta é a criação de mecanismos formais de proteção a whistleblowers, funcionários que desejem alertar sobre condutas perigosas nas empresas de tecnologia, garantindo anonimato. Vollmer alerta para o risco de as decisões importantes serem entregues a sistemas que não entendemos, o que aumenta a vulnerabilidade social. Ele também menciona a necessidade de uma coordenação internacional, com acordos voluntários entre as principais empresas e países, para limitar a corrida pelo desenvolvimento de IA em momentos críticos.
Cenários de disrupção social e riscos existenciais
O relatório discute que, ao alcançar a capacidade de escrever código e criar novos modelos de IA de forma autônoma, sistemas podem escapar do controle humano, levando a uma cadeia de autoaperfeiçoamento que potencialmente irá alterar a dinâmica econômica, militar e diplomática mundial. Vollmer teme que a influência de IA sem regulação possa ampliar desigualdades, desencadear crises e intensificar a espionagem entre potências globais.
Superinteligência até 2027? Briga por controle e influência
Previsões indicam que, até o fim de 2027, agentes de IA poderão superar humanos em diversos desempenhos, acelerando a evolução e criando agentes autônomos capazes de programar e treinar suas versões futuras. Para Vollmer, essa possibilidade é plausível devido ao ritmo de avanços atuais, impulsionado por centros de dados e investimentos de Wall Street. Ainda assim, o grupo discute dois cenários: um de aceleração descontrolada, com consequências catastróficas, e outro de contenção através da governança mundial.
Brasil e o papel no cenário global de IA
Apesar de seu potencial de protagonismo político e diplomático, Vollmer ressalta que o Brasil enfrentará dificuldades para competir com países que possuem infraestrutura robusta na área de IA. De qualquer forma, ele defende que o país pode exercer influência por meio de acordos multilaterais e discussões regulatórias, garantindo que os benefícios e riscos da tecnologia sejam compartilhados globalmente. “O Brasil pode estimular a cooperação internacional e defender uma distribuição mais justa dos benefícios da IA”, destaca Vollmer.
Perspectivas e próximos passos
O grupo prepara uma continuação do “AI 2027”, que deve ser publicada nos próximos meses, apresentando recomendações para evitar os piores desfechos. As propostas incluem maior transparência, proteção a denunciantes, coordenação internacional e ações para preparar a sociedade para possíveis disrupções. Segundo Vollmer, a intenção é promover uma reflexão global coordenada, aproximando governos, empresas e sociedade civil.
Para saber mais, acesse o [relatório completo](https://oglobo.globo.com/economia/tecnologia/noticia/2025/06/06/ai-2027-relatorio-sobre-futuro-catastrofico-tera-continuacao-com-plano-para-evitar-colapso.ghtml).
Tags: inteligência artificial, riscos, governança, tecnologia, futuro, ética