A partir de 1º de agosto de 2024, entra em vigor a primeira regulamentação em toda a UE sobre inteligência artificial, conhecida como "AI Act". O regulamento, que foi publicado no Jornal Oficial da União Europeia em junho passado, é o resultado de anos de negociações entre os 27 Estados-Membros. Essa legislação estabelece uma estrutura regulatória pioneira que imporá mudanças progressivas no uso e no desenvolvimento de sistemas de IA, com o objetivo de garantir a segurança e os direitos fundamentais dos cidadãos.
A implementação da Lei de IA será gradual. Embora a lei já esteja em vigor, espera-se que a conformidade total não seja obrigatória até agosto de 2026. Em uma primeira fase, a partir de 2 de fevereiro de 2025, as disposições gerais e as proibições de riscos inaceitáveis deverão ser cumpridas. Três meses depois, em 2 de maio de 2025, os códigos de prática serão implementados. Até 2 de agosto de 2025, as regras gerais estarão em vigor e cada país deverá ter atualizado suas leis para aplicar sanções às empresas que não estiverem em conformidade.
Para sistemas de "alto risco", como os modelos de IA mais avançados, foi concedida uma janela de 36 meses para o cumprimento de todas as obrigações. Isso significa que esses sistemas não serão totalmente regulamentados até agosto de 2027, quando deverão documentar suas operações e ser transparentes em relação aos seus processos.
Um dos aspectos mais complexos da Lei de AI é a definição e a classificação dos sistemas de AI de acordo com seu nível de risco. A lei estabelece que os sistemas de "alto risco" são aqueles quepodem ter um impacto significativo sobre a saúde, a segurança e os direitos fundamentais dos indivíduos. Esse grupo inclui sistemas que afetam setores essenciais, como educação, processos democráticos e segurança.
No entanto, surgiu alguma controvérsia sobre a omissão da vigilância por vídeo em massa da categorização de "alto risco". Embora o reconhecimento facial ao vivo seja proibido, o regulamento permite o uso de sistemas de identificação biométrica, como os usados para controle de fronteiras. Organizações de privacidade, como a EDRi, expressaram preocupação com essas brechas na legislação.
Mastering Copilot for business efficiency
Foco nos desenvolvedores e penalidades
O AI Act concentra suas regulamentações principalmente nos desenvolvedores de modelos de IA de "alto risco", deixando de fora a maioria dos sistemas de "risco mínimo", como filtros e chatbots. Essa abordagem busca responsabilizar aqueles que criam os modelos, e não aqueles que os implementam. Um exemplo disso é a relação entre o Google e os fabricantes de celulares, como a Samsung ou a OPPO, que adaptam modelos como o Gemini, mas não os desenvolvem do zero. Uma outra crítica à lei é que ela não isenta os modelos de código aberto do cumprimento de suas disposições. Isso inclui plataformas como a LLaMa da Meta, a Stable Diffusion e a Mistral.
As penalidades por não conformidade com a Lei de IApodem chegar a 7% do faturamento mundial anual da empresa infratora. Essas multas são mais altas do que as estabelecidas pelo Regulamento Geral de Proteção de Dados, que estabelece um máximo de 4%, e pela Lei de Serviços Digitais, que chega a 6%. O Escritório Europeu de Inteligência Artificial será responsável por monitorar a conformidade com a lei, preparar relatórios e atualizar os requisitos.
A entrada em vigor do AI Act é um marco na regulamentação da inteligência artificial, com a Europa liderando o caminho para um uso mais seguro e responsável dessas tecnologias emergentes.