A inteligência artificial (IA) tornou-se um impulsionador global que afeta quase todos os setores. Diante de sua rápida expansão, governos como os da União Europeia (UE), EUA, Reino Unido, Brasil e China estão elaborando políticas para encontrar um equilíbrio entre inovação e supervisão. A Lei de IA da UE, a Ordem Executiva de IA dos EUA e as leis específicas da China demonstram a diversidade dos esforços globais.
A previsão é que o mercado global de IA atinja US$ 500 bilhões em 2024. Esse crescimento impulsionou a necessidade de criar estruturas regulatórias que proporcionem uma supervisão abrangente. A Lei de IA da UE foi proposta em 2021, seguida pela "Declaração de Direitos de IA" nos EUA, enquanto a China implementou as "Disposições de Síntese Profunda" ou o Brasil está trabalhando em seu "Projeto de Lei nº 2.338/2023" sobre Inteligência Artificial, ainda sem um nome concreto.
A lei de IA da UE classifica os sistemas de IA em quatro categorias de risco: mínimo, limitado, alto e inaceitável. Os sistemas de alto risco, como os de recursos humanos, educação e bancos, estão sujeitos a requisitos rigorosos de transparência, segurança e ética. Já a lei europeia, que entrará em pleno vigor em 2026, proíbe sistemas que manipulem o comportamento ou usem pontuação social. Isso influenciará significativamente a estrutura regulatória global.
O Reino Unido adota uma abordagem pró-inovação, contando com os reguladores existentes para gerenciar os riscos de IA em suas respectivas áreas. Foram estabelecidos princípios de transparência, ética e responsabilidade, enquanto o governo incentiva a supervisão específica do setor, permitindo que os reguladores formulem estratégias flexíveis e coerentes. Além disso, o Centro de Ética e Inovação de Dados está desenvolvendo um Centro de Transparência Algorítmica para fortalecer a governança da IA.
O Brasil se posicionou como pioneiro na América Latina com uma estratégia nacional de IA em 2021. A legislação atual, o Projeto de Lei nº 2.338/2023, estabelece direitos relacionados à justiça e à transparência nas decisões dos sistemas de IA. Essa proposta de lei classifica os sistemas em categorias de risco alto, não alto ou proibido. A lei, que em breve será colocada em votação, servirá como um padrão para a região.
A China desenvolveu uma estratégia que se concentra na regulamentação de problemas específicos, como manipulação de preços ou geração de conteúdo falso. As disposições para algoritmos de recomendação proíbem o uso de viés na gestão de mão de obra, enquanto a regulamentação do conteúdo gerado exige uma rotulagem clara para distinguir entre conteúdo genuíno e falso. As novas regras sobre "Síntese Profunda" supervisionam tanto a criação quanto a disseminação de conteúdo gerado por IA, estabelecendo um precedente sobre como lidar com esses desafios globalmente.
As regulamentações variam de acordo com a abordagem regional. A UE opta por uma estrutura abrangente baseada em riscos, o Reino Unido adota uma supervisão setorial flexível, o Brasil lidera com uma estratégia nacional inovadora e a China regulamenta questões específicas relacionadas a conteúdo e manipulação.
Nos EUA, a Ordem Executiva e a "AI Bill of Rights" visam à proteção do consumidor, enquanto as leis estaduais definirão medidas específicas, como na Califórnia.