China ha desarrollado el primer comandante de IA del mundo, conocido como el primer 'Skynet' de la historia. Este innovador sistema de inteligencia artificial militar tiene la capacidad de decidir lanzar un ataque nuclear global. Los ingenieros demostraron su funcionamiento integrando a este comandante en las simulaciones del Ejército Popular de Liberación (PLA), a través de juegos de guerra por ordenador a gran escala que involucran a todas sus ramas. Por ahora, el gobierno chino ha decidido mantener la IA aislada, fuera de los sistemas de comando y batalla reales.
Este logro tecnológico está confinado en un laboratorio del Colegio de Operaciones Conjuntas de la Universidad de Defensa Nacional en Shijiazhuang, provincia de Hebei, según informó el diario hongkonés South China Morning Post. De acuerdo con la doctrina militar china, solo los comandantes humanos autorizados por la Comisión Militar Central del Partido Comunista de China pueden dar órdenes militares, bajo el principio de que 'El Partido controla el arma'.
Los científicos describieron el sistema en un artículo revisado publicado el mes pasado en la revista científica Command Control & Simulation. El estudio sostiene que es necesario establecer comandantes de IA si los militares quieren controlar de forma efectiva activos como los enjambres de drones, lanzamiento de misiles o unidades blindadas autónomas. Según el ingeniero líder del proyecto, Jia Chenxing, "el actual sistema de simulación de operaciones conjuntas muestra malos resultados en experimentos de simulación debido a la falta de entidades de mando a nivel de batalla conjunta". El propósito principal de este sistema de IA es ayudar a probar planes operativos para posibles conflictos militares, especialmente en regiones sensibles como Taiwán y el Mar de China Meridional.
El comandante de IA está diseñado para aprender de estrategas humanos experimentados y se puede ajustar para reflejar diferentes estilos de mando si es necesario. Su proceso de toma de decisiones usa el conocimiento y la memoria de estrategias, similar a un jugador de ajedrez, e incluso simula propiedades humanas como el olvido, limitando así su base de conocimientos. Según el estudio, cuando la memoria del sistema llega a su límite, es capaz de descartar las unidades de conocimiento innecesarias, replicando a los comandantes humanos. "La personalidad del comandante virtual se puede ajustar si se considera necesario", afirma Jia.
En sus experimentos, la IA lleva a cabo simulaciones de forma autónoma, identificando nuevas amenazas, elaborando planes y tomando decisiones óptimas sin intervención humana. Al poder realizar esto de manera repetitiva e ilimitada, el sistema obtiene una experiencia inigualable por un militar humano, proporcionando información valiosa sobre diversos escenarios de combate a los comandantes reales.
Estructura y Capacidad de Mando
Por ahora, el 'Skynet' chino solo puede participar en simulaciones y no tiene mando efectivo sobre unidades reales. China no permite actualmente que una IA lidere las fuerzas armadas directamente, aunque permite que unidades desplegadas en vanguardia, como enjambres de drones, tomen decisiones de forma autónoma, como elegir objetivos. Sin embargo, la autoridad de mando definitiva recae en un líder humano. Jia argumenta que, aunque debe haber “un comandante de más alto nivel como única entidad central de toma de decisiones para la operación general, con las principales responsabilidades y autoridad en la toma de decisiones", se necesitan comandantes de IA para coordinar fuerzas.
En los Estados Unidos, la IA sirve como una herramienta de apoyo en la toma de decisiones y no juega el papel de comandante. El Ejército estadounidense utiliza la IA como "personal virtual del comandante", proporcionando apoyo para la toma de decisiones, mientras que la IA de la Fuerza Aérea participa en el entrenamiento de primera línea, pero no tiene responsabilidades de mando en operaciones reales.
La realidad de estos sistemas puede cambiar en el futuro. Actualmente, ambos países, junto con otros a nivel mundial, están experimentando con sistemas de armas autónomos que tienen la capacidad de llevar a cabo ataques sin autorización en caso de falta de comunicación, algo posible en escenarios bélicos con guerra electrónica. La guerra en Ucrania está sirviendo como un gran campo de simulación para estos sistemas autónomos.
Las conversaciones y acuerdos para establecer una regulación estricta que impida los peores extremos siguen sin avanzar, especialmente en el objetivo clave de prohibir que los sistemas de IA tengan control directo y autónomo de armas que puedan causar la pérdida de vidas humanas, así como el control de armas de destrucción masiva.