No final de 2023, o Parlamento Europeu e a Comissão Europeia chegaram a um acordo sobre o texto da Lei de IA da UE. Na ausência da aprovação final do documento por ambas as instituições e pelo Conselho Europeu, a estrutura que desenvolverá o novo regulamento já está prevista. Se tudo correr conforme o planejado, a entrada em vigor será dois anos após sua publicação no Jornal Oficial da UE. Espera-se que o texto seja totalmente implementado a partir de 2026.

A inteligência artificial é uma tecnologia que oferece grandes oportunidades de inovação, competitividade e bem-estar social. No entanto, ela também apresenta desafios éticos, legais e sociais que precisam ser adequadamente abordados. É por isso que um conjunto de regulamentações de IA entrou em vigor em 2024 que estabelece uma estrutura comum para assegurar o desenvolvimento e o uso responsável da IA na União Europeia.

Se a sua empresa usa ou desenvolve aplicativos com inteligência artificial, você deve ter clareza sobre os regulamentos. Neste artigo, explicamos em que consiste a regulamentação, como os níveis de risco são definidos e quais são as áreas de aplicação.

A classificação das ferramentas de IA de acordo com seu nível de risco

A regulamentação de IA da UE classifica os aplicativos em quatro níveis de risco: proibido, alto, limitado e mínimo.

  • Proibido: aplicativos de IA que violam valores e princípios fundamentais da UE, como a dignidade humana, a democracia ou o estado de direito. Por exemplo, manipulação do comportamento humano, vigilância em massa ou pontuação social por qualquer governo. Esses aplicativos são proibidos e não podem ser desenvolvidos ou usados na UE.
  • Nível de alto risco: são aplicativos de IA que podem causar danos significativos a indivíduos ou à sociedade. Isso inclui aplicativos de IA que são usados em questões de segurança pública, saúde, educação, emprego ou acesso a serviços essenciais. Essa categoria inclui sistemas de reconhecimento facial, sistemas de diagnóstico médico ou sistemas de seleção de pessoal. Esses aplicativos estão sujeitos a requisitos rigorosos de qualidade, transparência, supervisão humana e responsabilidade.
  • Nível de risco médio: são aplicativos de IA que podem ter um impacto negativo sobre os direitos ou interesses dos indivíduos, mas que podem ser atenuados com o uso de medidas adequadas. Por exemplo, sistemas de publicidade personalizada, sistemas de recomendação de conteúdo ou chatbots. Esses aplicativos devem cumprir determinadas obrigações de transparência de informações e consentimento com os usuários
  • Nível de risco mínimo: esses são aplicativos de IA que não apresentam um risco significativo para os indivíduos ou para a sociedade, ou que já são regulamentados por outras regras. Por exemplo, sistemas de videogame, sistemas de assistência ao motorista ou sistemas de gerenciamento de estoque. Esses aplicativos não estão sujeitos a requisitos específicos, mas devem estar em conformidade com as regras gerais de proteção de dados, consumidor, concorrência e não discriminação.

 

Qual é o escopo da lei de IA da UE

As regulamentações europeias de IA se aplicam a todos os aplicativos que são desenvolvidos ou usados na UE, independentemente da localização ou nacionalidade dos provedores ou usuários. Da mesma forma, elas se aplicam a aplicativos de IA que são importados ou exportados de ou para a UE, sempre que afetarem seus cidadãos ou interesses.

É importante esclarecer que os regulamentos de IA não se aplicam a aplicativos usados exclusivamente para fins militares ou de segurança nacional, nem a aplicativos de IA desenvolvidos ou usados para fins de pesquisa, experimentação, teste ou verificação.

As obrigações das empresas que usam ou desenvolvem IA

As empresas que usam ou desenvolvem aplicativos de IA devem cumprir as obrigações que se aplicam a elas, dependendo do nível de risco do aplicativo. Essas obrigações podem variar de acordo com a função que desempenham na cadeia de valor da IA: fornecedor, distribuidor, usuário ou parte afetada.

  • Provedor: a pessoa física ou jurídica que desenvolve um aplicativo de IA ou o disponibiliza a terceiros, seja por venda, aluguel, licença ou qualquer outra forma de distribuição. O provedor é o principal responsável pelo cumprimento dos regulamentos de IA e deve garantir que o aplicativo cumpra os requisitos de qualidade, transparência, supervisão humana e responsabilidade que se aplicam a ele de acordo com o nível de risco. Além disso, o provedor deve realizar uma avaliação de risco de IA, registrar o aplicativo em um banco de dados público, cooperar com as autoridades de supervisão e relatar quaisquer incidentes ou mau funcionamento do aplicativo.
  • Distribuidor: é a pessoa física ou jurídica que transmite um aplicativo de IA de um provedor para um usuário sem modificá-lo ou alterá-lo. O distribuidor deve verificar se o provedor cumpriu suas obrigações de acordo com o nível de risco da IA e deve informar o usuário sobre os recursos e o funcionamento do aplicativo. Além disso, o distribuidor deve cooperar com as autoridades de supervisão e relatar quaisquer incidentes ou problemas de funcionamento da IA.
  • O distribuidor também deve relatar quaisquer incidentes ou problemas de funcionamento da IA às autoridades de supervisão.
  • Usuário: é a pessoa física ou jurídica que usa um aplicativo de IA para seus próprios fins ou para fornecer um serviço a terceiros. O usuário deve respeitar as instruções e condições de uso estabelecidas pelo provedor ou distribuidor do aplicativo de IA e deve supervisionar sua operação de maneira adequada. Além disso, o usuário deve cooperar com as autoridades de supervisão e relatar quaisquer incidentes ou mau funcionamento da IA.
  • Pessoa afetada: é a pessoa física ou jurídica cujos direitos ou interesses podem ser afetados pelo uso de um aplicativo de IA, direta ou indiretamente. A pessoa afetada tem o direito de receber informações claras e compreensíveis sobre o uso da IA e suas implicações, de dar consentimento livre e informado quando necessário, de exercer controle sobre o aplicativo quando possível e de reivindicar e obter reparação quando sofrer danos causados pela IA.

Esse regulamento busca garantir o desenvolvimento ético, seguro e confiável e o uso da IA na UE. Se você é uma empresa que usa ou desenvolve soluções de IA, deve estar ciente e cumprir esses regulamentos, dependendo do nível de risco, do escopo de aplicação e das obrigações que se aplicam a você. Ao fazer isso, você ajudará a criar confiança e aceitação da IA entre cidadãos, clientes e parceiros, e a aproveitar as oportunidades que ela pode oferecer para o crescimento e a competitividade de seus negócios.