O governo do presidente Joe Biden tomou medidas significativas para regulamentar o uso da inteligência artificial, um campo em rápida expansão que está transformando a economia global e a vida cotidiana. Em um esforço para mitigar os riscos associados a essa tecnologia, Biden assinou uma ordem executiva em outubro de 2023, estabelecendo uma série de salvaguardas para garantir o desenvolvimento seguro e equitativo da IA. A Apple, uma das maiores empresas de tecnologia do mundo, decidiu aderir a essas regulamentações voluntárias, juntando-se a outros gigantes do setor, como Alphabet, Amazon, Meta, Microsoft e OpenAI.
As salvaguardas
A ordem executiva de Biden é uma resposta às crescentes preocupações sobre os possíveis perigos da inteligência artificial, tanto em termos de privacidade quanto de justiça. Ela consiste em oito pontos-chave, que vão desde a promoção da segurança da IA até a proteção dos direitos civis. Um dos elementos mais proeminentes dessa ordem é a exigência de que os desenvolvedores de sistemas de IA de ponta compartilhem os resultados de seus testes de segurança e outras informações críticas com o governo dos EUA e a sociedade civil.
A Apple, que recentemente lançou seu próprio conjunto de recursos de inteligência artificial chamado Apple Intelligence, decidiu cumprir essas novas regras. A decisão da empresa sediada em Cupertino vem na esteira de seu acordo com a OpenAI para integrar modelos de IA em seus produtos, ressaltando seu compromisso com o desenvolvimento responsável dessa tecnologia.
Embora a ordem executiva de Biden estabeleça uma estrutura detalhada para a regulamentação da inteligência artificial, é importante observar que a conformidade não é obrigatória. As empresas são livres para adotar essas regras de forma voluntária, o que significa que o governo dos EUA deve confiar na boa fé dessas empresas. Mesmo assim, a adesão de gigantes da tecnologia, como a Apple, indica um reconhecimento da necessidade de regulamentação nessa área.
Além dos pontos mencionados acima, a regulamentação inclui medidas de proteção contra o uso indevido da IA na criação de materiais perigosos para a saúde e na disseminação de fraudes e desinformação. Também foram estabelecidos padrões para detectar e autenticar conteúdo gerado por IA, garantindo que os sistemas sejam seguros e confiáveis. Um dos aspectos mais importantes da ordem executiva é a proteção da privacidade do usuário. O governo Biden reconhece que a inteligência artificial facilita a extração e a exploração de informações pessoais e incluiu diretrizes para acelerar o desenvolvimento de técnicas de preservação da privacidade e fortalecer a pesquisa nessa área.
A regulamentação da inteligência artificial é um campo em evolução, e a ordem executiva de Biden representa um primeiro passo importante em direção a uma estrutura mais robusta e segura para seu desenvolvimento. Com a adesão da Apple e de outras grandes empresas de tecnologia, espera-se que mais participantes do setor se juntem à iniciativa, promovendo a inovação responsável e segura no uso da IA.