Brasil, 8 de junho de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

AI 2027: relatório projeta riscos e medidas para evitar colapso na inteligência artificial

Relatório “AI 2027” alerta sobre cenários distópicos e propõe ações para controlar o avanço da inteligência artificial até 2027

O relatório “AI 2027”, publicado pela organização sem fins lucrativos AI Futures, imagina um futuro distópico para a inteligência artificial, com impactos que podem ameaçar instituições e a sociedade. A análise, que tem ganhado destaque entre especialistas e autoridades, prevê que, em até dois anos, modelos avançados de IA ultrapassar humanos em diversas tarefas, enquanto, no pior cenário, a tecnologia poderia desencadear uma corrida armamentista e erosão institucional.

Previsões alarmantes e o objetivo de estimular o debate sobre IA

O documento aponta que o avanço descontrolado da IA pode levar a uma revolução no mercado de trabalho, com automação da maioria dos empregos administrativos, além de um aumento da desigualdade social e crises políticas globais. Segundo Jonas Vollmer, diretor de operações do AI Futures, o objetivo do relatório não é gerar pânico, mas estimular reflexões essenciais sobre a governança da tecnologia. “Queremos que os formuladores de políticas, empresas e sociedade discutam medidas para evitar os piores desfechos”, afirma.

Recomendações para mitigar os riscos da IA

Transparência e segurança

Entre as principais recomendações, Vollmer destaca a necessidade de maior transparência por parte das empresas desenvolvedoras. Isso inclui a publicação de “model specs”, documentos que detalham o funcionamento dos sistemas de IA e seus princípios de treinamento, considerados uma espécie de “constituição” dos modelos. Além disso, é essencial que as empresas divulguem relatórios públicos de segurança, explicando os riscos e as razões de acreditarem que seus sistemas estão sob controle.

Proteção a denunciantes e coordenação internacional

Outra proposta é a criação de mecanismos formais de proteção a whistleblowers, funcionários que desejem alertar sobre condutas perigosas nas empresas de tecnologia, garantindo anonimato. Vollmer alerta para o risco de as decisões importantes serem entregues a sistemas que não entendemos, o que aumenta a vulnerabilidade social. Ele também menciona a necessidade de uma coordenação internacional, com acordos voluntários entre as principais empresas e países, para limitar a corrida pelo desenvolvimento de IA em momentos críticos.

Cenários de disrupção social e riscos existenciais

O relatório discute que, ao alcançar a capacidade de escrever código e criar novos modelos de IA de forma autônoma, sistemas podem escapar do controle humano, levando a uma cadeia de autoaperfeiçoamento que potencialmente irá alterar a dinâmica econômica, militar e diplomática mundial. Vollmer teme que a influência de IA sem regulação possa ampliar desigualdades, desencadear crises e intensificar a espionagem entre potências globais.

Superinteligência até 2027? Briga por controle e influência

Previsões indicam que, até o fim de 2027, agentes de IA poderão superar humanos em diversos desempenhos, acelerando a evolução e criando agentes autônomos capazes de programar e treinar suas versões futuras. Para Vollmer, essa possibilidade é plausível devido ao ritmo de avanços atuais, impulsionado por centros de dados e investimentos de Wall Street. Ainda assim, o grupo discute dois cenários: um de aceleração descontrolada, com consequências catastróficas, e outro de contenção através da governança mundial.

Brasil e o papel no cenário global de IA

Apesar de seu potencial de protagonismo político e diplomático, Vollmer ressalta que o Brasil enfrentará dificuldades para competir com países que possuem infraestrutura robusta na área de IA. De qualquer forma, ele defende que o país pode exercer influência por meio de acordos multilaterais e discussões regulatórias, garantindo que os benefícios e riscos da tecnologia sejam compartilhados globalmente. “O Brasil pode estimular a cooperação internacional e defender uma distribuição mais justa dos benefícios da IA”, destaca Vollmer.

Perspectivas e próximos passos

O grupo prepara uma continuação do “AI 2027”, que deve ser publicada nos próximos meses, apresentando recomendações para evitar os piores desfechos. As propostas incluem maior transparência, proteção a denunciantes, coordenação internacional e ações para preparar a sociedade para possíveis disrupções. Segundo Vollmer, a intenção é promover uma reflexão global coordenada, aproximando governos, empresas e sociedade civil.

Para saber mais, acesse o [relatório completo](https://oglobo.globo.com/economia/tecnologia/noticia/2025/06/06/ai-2027-relatorio-sobre-futuro-catastrofico-tera-continuacao-com-plano-para-evitar-colapso.ghtml).

Tags: inteligência artificial, riscos, governança, tecnologia, futuro, ética

PUBLICIDADE

Institucional

Anunciantes