No final de setembro, o cofundador da Shield AI, Brandon Tseng, declarou que as armas nos Estados Unidos nunca seriam totalmente autônomas, o que significa que um algoritmo de inteligência artificial não tomaria a decisão final de matar. "O Congresso não quer isso, ninguém quer isso", disse Tseng.

No entanto, alguns dias depois, Palmer Luckey, cofundador da Anduril, mostrou uma postura mais aberta em relação às armas autônomas, expressando ceticismo em relação aos argumentos contrários. "Os oponentes dos Estados Unidos usam frases bonitas, como: 'Você não concorda que um robô não deve decidir quem vive ou morre?", comentou Luckey em uma palestra na Pepperdine University. "Minha resposta é: Onde está a moral de uma mina que não faz distinção entre um ônibus escolar cheio de crianças e um tanque russo?"

 

Ambiguidade regulatória e o papel da IA

Shannon Prior, porta-voz da Anduril, esclareceu que Luckey não estava defendendo que os robôs fossem programados para matar de forma autônoma, mas que ele estava preocupado com o uso de "IA ruim" por pessoas com más intenções. Essa posição é compartilhada por Trae Stephens, cofundador da Anduril, que no ano passado declarou que as tecnologias que estão desenvolvendo permitem que os seres humanos tomem as decisões certas, garantindo que sempre haja alguém responsável em situações que envolvam letalidade.

No entanto, a posição do governo dos EUA sobre armas totalmente autônomas permanece ambígua. Embora atualmente não compre armas totalmente autônomas, algumas tecnologias, como mísseis e minas, já operam de forma autônoma. A diferença é que esses sistemas não têm a capacidade de tomar decisões complexas, como identificar e atacar um alvo sem intervenção humana.

 

Preocupações de uma corrida armamentista

O medo de muitos no Vale do Silício e em Washington é que países como a China ou a Rússia sejam os primeiros a implantar armas totalmente autônomas, forçando os EUA a seguir o exemplo. Em um debate da ONU sobre armas autônomas, um diplomata russo deu a entender que, para a Rússia, o controle humano não era uma prioridade tão alta quanto para outras nações.

Joe Lonsdale, cofundador da Palantir e acionista da Anduril, enfatizou em um evento do Hudson Institute que os formuladores de políticas deveriam adotar uma abordagem flexível em relação às armas autônomas, argumentando que regras rígidas poderiam colocar em risco a segurança do país no campo de batalha.

Como os conflitos, como a guerra na Ucrânia, fornecem novos dados e cenários para testar tecnologias militares, o debate sobre a autonomia total das armas continua sendo uma questão central. Enquanto isso, empresas como a Anduril e a Palantir estão trabalhando ativamente para influenciar os formuladores de políticas a considerar as possibilidades e os riscos da integração da IA aos sistemas de defesa.