A finales de septiembre, el cofundador de Shield AI, Brandon Tseng, declaró que las armas en Estados Unidos nunca serían completamente autónomas, es decir, que un algoritmo de inteligencia artificial no tomaría la decisión final de matar. "El Congreso no quiere eso, nadie lo quiere", dijo Tseng.

Sin embargo, pocos días después, Palmer Luckey, cofundador de Anduril, mostró una postura más abierta hacia las armas autónomas, expresando escepticismo sobre los argumentos en contra. “Los adversarios de Estados Unidos utilizan frases que suenan bien, como: ‘¿No puedes estar de acuerdo en que un robot no debería decidir quién vive o muere?’”, comentó Luckey en una charla en la Universidad de Pepperdine. “Mi respuesta es: ¿Dónde está el terreno moral en una mina que no distingue entre un autobús escolar lleno de niños y un tanque ruso?”

 

Ambigüedad en la regulación y el papel de la IA

Shannon Prior, portavoz de Anduril, aclaró que Luckey no estaba defendiendo que los robots sean programados para matar de manera autónoma, sino que estaba preocupado por el uso de "malas IA" por parte de personas con malas intenciones. Esta postura es compartida por Trae Stephens, cofundador de Anduril, quien el año pasado afirmó que las tecnologías que están desarrollando permiten que los humanos tomen decisiones correctas, asegurando que siempre haya alguien responsable en situaciones que involucren letalidad.

Sin embargo, la posición del gobierno de EE. UU. sobre las armas completamente autónomas sigue siendo ambigua. Aunque actualmente no compra armas totalmente autónomas, algunas tecnologías como misiles y minas ya funcionan de manera autónoma. La diferencia radica en que estos sistemas no tienen la capacidad de tomar decisiones complejas como la identificación y ataque de un objetivo sin intervención humana.

 

Temores de una carrera armamentista

El temor de muchos en Silicon Valley y Washington es que países como China o Rusia sean los primeros en desplegar armas totalmente autónomas, lo que obligaría a EE. UU. a seguir el mismo camino. En un debate de la ONU sobre armas autónomas, un diplomático ruso insinuó que para Rusia, el control humano no era una prioridad tan alta como para otras naciones.

Joe Lonsdale, cofundador de Palantir y accionista de Anduril, enfatizó en un evento del Instituto Hudson que los responsables de formular políticas deben adoptar un enfoque flexible respecto a la autonomía en armas, argumentando que las reglas estrictas podrían poner en peligro la seguridad del país en el campo de batalla.

A medida que los conflictos, como la guerra en Ucrania, proporcionan nuevos datos y escenarios para probar tecnologías militares, el debate sobre la autonomía total en armas sigue siendo un tema central. Mientras tanto, empresas como Anduril y Palantir trabajan activamente en influir a los legisladores para que consideren las posibilidades y riesgos de integrar la IA en sistemas de defensa.