Em maio de 2024, pelo menos 200 funcionários da Google DeepMind, a divisão de pesquisa e desenvolvimento de inteligência artificial da empresa, expressaram insatisfação com os contratos de defesa que a Google assinou, informou a revista Time. Os funcionários assinaram uma carta, datada de 16 de maio, pedindo à empresa que encerre seus acordos com organizações militares, observando que o uso da tecnologia de IA do Google para fins militares compromete os princípios éticos da empresa.
Preocupações sobre o uso militar da IA
A carta afirma que as preocupações dos funcionários não estão ligadas à geopolítica de um conflito em particular, mas ao envolvimento do Google no fornecimento de inteligência artificial e serviços de computação em nuvem para os militares israelenses, um acordo conhecido como Projeto Nimbus. Os signatários citam relatos de que os militares israelenses usam essa tecnologia para vigilância em massa e direcionamento em Gaza. Além disso, eles mencionam que as empresas israelenses de armamentos, forçadas pelo governo, são obrigadas a comprar serviços de nuvem do Google e da Amazon.
O documento também destaca as tensões entre o Google e a DeepMind, refletidas em um choque cultural dentro da organização. Enquanto o Google, por meio de seu negócio de nuvem, vende serviços de IA para os militares, a DeepMind foi adquirida pela empresa em 2014 com a promessa de que sua tecnologia não seria usada para fins militares ou de vigilância. Esse compromisso, reafirmado em 2018, agora parece estar em risco devido aos contratos em questão.
Compromisso ético em questão
A carta dos funcionários da DeepMind enfatiza que qualquer envolvimento na fabricação de armas ou em operações militares põe em risco a reputação do Google como líder em IA ética e responsável, e viola sua missão e os princípios de inteligência artificial declarados pela empresa. Os trabalhadores pediram que a administração investigasse as denúncias de uso dos serviços de nuvem do Google por militares e fabricantes de armas, cortasse o acesso militar à tecnologia da DeepMind e estabelecesse um novo órgão de governança para impedir o uso futuro da IA para fins militares.
Apesar da crescente preocupação entre os funcionários, o Google não emitiu uma resposta significativa. Esse silêncio alimenta as tensões dentro da empresa, onde alguns funcionários estão preocupados com a direção que os contratos e acordos militares estão tomando, enquanto outras partes da empresa continuam a avançar com essas colaborações.