A China desenvolveu o primeiro comandante de IA do mundo, conhecido como a primeira "Skynet" da história. Esse inovador sistema militar de inteligência artificial tem a capacidade de decidir lançar um ataque nuclear global. Os engenheiros demonstraram sua operação integrando esse comandante às simulações do Exército de Libertação Popular (ELP) por meio de jogos de guerra computadorizados em grande escala envolvendo todos os ramos do ELP. Por enquanto, o governo chinês decidiu manter a IA isolada, fora dos sistemas reais de comando e batalha.

Essa conquista tecnológica está confinada em um laboratório na Faculdade de Operações Conjuntas da Universidade de Defesa Nacional em Shijiazhuang, província de Hebei, informou o South China Morning Post, com sede em Hong Kong. De acordo com a doutrina militar chinesa, somente comandantes humanos autorizados pela Comissão Militar Central do Partido Comunista da China podem emitir ordens militares, de acordo com o princípio de que "o Partido controla a arma".

Os cientistas descreveram o sistema em um artigo revisado publicado no mês passado na revista científica Command Control & Simulation. O estudo argumenta que os comandantes de IA precisam ser estabelecidos para que as forças armadas possam controlar com eficácia ativos como enxames de drones, lançamentos de mísseis ou unidades blindadas autônomas. De acordo com o engenheiro-chefe do projeto, Jia Chenxing, "o atual sistema de simulação de operações conjuntas apresenta resultados ruins em experimentos de simulação devido à falta de entidades de comando em nível de batalha conjunta". O principal objetivo desse sistema de IA é ajudar a testar planos operacionais para possíveis conflitos militares, especialmente em regiões sensíveis, como Taiwan e o Mar do Sul da China..

O comandante de IA foi projetado para aprender com estrategistas humanos experientes e pode ser ajustado para refletir diferentes estilos de comando, se necessário. Seu processo de tomada de decisão utiliza conhecimento e memória de estratégias, semelhante a um jogador de xadrez, e até mesmo simula propriedades humanas, como o esquecimento, limitando assim sua base de conhecimento. De acordo com o estudo, quando a memória do sistema atinge seu limite, ele é capaz de descartar unidades de conhecimento desnecessárias, replicando comandantes humanos. "A personalidade do comandante virtual pode ser ajustada se for considerado necessário", diz Jia.

Em seus experimentos, a IA realiza simulações de forma autônoma, identificando novas ameaças, fazendo planos e tomando decisões ideais sem intervenção humana. Por ser capaz de fazer isso de forma repetitiva e ilimitada, o sistema ganha uma experiência inigualável por um militar humano, fornecendo feedback valioso sobre vários cenários de combate para comandantes reais.

Estrutura e capacidade de comando

Por enquanto, a "Skynet" chinesa só pode participar de simulações e não tem comando efetivo sobre unidades reais. Atualmente, a China não permite que uma IA lidere diretamente as forças armadas, embora permita que unidades implantadas na frente, como enxames de drones, tomem decisões autônomas, como a escolha de alvos. No entanto, a autoridade de comando final cabe a um líder humano. Jia argumenta que, embora deva haver "um comandante de nível superior como a única entidade central de tomada de decisões para a operação geral, com responsabilidades e autoridade primárias de tomada de decisões", os comandantes de IA são necessários para coordenar as forças.

Nos EUA, a IA serve como uma ferramenta de apoio à decisão e não desempenha o papel de comandante. O Exército dos EUA usa a IA como uma "equipe de comando virtual", fornecendo suporte a decisões, enquanto a IA da Força Aérea está envolvida no treinamento da linha de frente, mas não tem responsabilidades de comando em operações reais.

A realidade desses sistemas pode mudar no futuro. Atualmente, os dois países, juntamente com outros em todo o mundo, estão fazendo experiências com sistemas de armas autônomos que têm a capacidade de realizar ataques não autorizados em caso de falha de comunicação, o que é possível em cenários de guerra de guerra eletrônica. A guerra na Ucrânia está servindo como um grande campo de simulação para esses sistemas autônomos.

As conversas e os acordos para estabelecer uma regulamentação rigorosa para evitar os piores extremos ainda não conseguiram progredir, especialmente no que diz respeito ao objetivo principal de proibir que os sistemas de IA tenham controle autônomo direto de armas que possam causar perda de vidas, bem como o controle de armas de destruição em massa.