Em um importante debate no Conselho de Segurança das Nações Unidas, realizado em Nova York no dia 24 de setembro, o Arcebispo Paul Richard Gallagher, Secretário do Vaticano para as Relações com os Estados e as Organizações Internacionais, destacou a crescente preocupação com o uso da inteligência artificial (IA) em contextos militares. Ele reiterou o apelo da Santa Sé por uma “moratória imediata” sobre a criação de armas autônomas letais, evidenciando os perigos associados ao desenvolvimento dessa tecnologia, especialmente em sistemas de comando e controle nuclear.
A preocupação com a inteligência artificial
Na sua fala, Gallagher enfatizou que “precisamos de uma abordagem centralizada no ser humano para o desenvolvimento e uso de tecnologias emergentes, sobretudo no campo militar”. Ele adverte que a dependência de máquinas para tomar decisões em situações de vida ou morte ultrapassa limites éticos a serem respeitados. Segundo o Arcebispo, o uso inadequado da inteligência artificial pode resultar em divisão, agressão e exacerbação de conflitos. “Essa não é uma preocupação abstrata, mas uma realidade urgente”, afirmou, citando a instabilidade global atual e a integração acelerada da IA nas armamentos convencionais e nucleares.
Moratória sobre armas autônomas letais
De acordo com o Arcebispo Gallagher, “a Santa Sé apoia firmemente a adoção de uma moratória imediata sobre o desenvolvimento de sistemas de armas autônomas letais (SALA)”. Ele instou que a comunidade internacional deve tratar esta questão com a seriedade que merece. O desenvolvimento de tais tecnologias gera preocupações em várias esferas: jurídica, humanitária, ética e de segurança. Gallagher ressaltou que a utilização de sistemas de armas autônomas desconsidera o julgamento humano, fundamental em situações críticas.
Além disso, ele alertou sobre o surgimento de uma nova corrida armamentista, onde a inteligência artificial poderia alterar profundamente a natureza das guerras, gerando incertezas sem precedentes. “O uso da IA em sistemas de comando e controle nuclear pode causar riscos desconhecidos que vão além da lógica atual da dissuasão”, comentou o secretário.
Papel do Conselho de Segurança
Na conclusão de sua intervenção, Gallagher reafirmou o papel crucial do Conselho de Segurança: “tem a responsabilidade primordial de manter a paz e a segurança internacionais”. Ele destacou que o avanço das tecnologias deve ser acompanhado de uma supervisão rigorosa, visando sempre o respeito à dignidade humana e à busca do bem comum. O Arcebispo agradeceu à Coreia do Sul por convocar esse debate oportuno, ressaltando que a inteligência artificial já impacta diversas áreas, como educação, trabalho e saúde.
O apelo da Santa Sé se insere em um contexto global de crescente debate sobre o uso da inteligência artificial na guerra e em outros aspectos da vida, ressaltando a necessidade de uma abordagem que priorize a ética e os direitos humanos diante do avanço tecnológico. O futuro da IA deve ser orientado por princípios que garantam a proteção e a dignidade da vida humana, e não a sua diminuição através de práticas impensadas e que desafiam a moralidade.
A discussão sobre a relação entre inteligência artificial e armas letais é apenas uma das várias questões que estão sendo abordadas no cenário mundial, mas certamente, dado o seu impacto potencial, merece atenção especial das autoridades e da sociedade civil.
Para mais informações sobre a intervenção do Vaticano nas Nações Unidas, acesse Vatican News.