Em meio a um contexto regulatório que avança sem olhar para trás, o Reino Unido hesita. É um dos países mais influentes no setor de inteligência artificial, mas ainda não decidiu legislar sobre o setor. Além disso, está na expectativa, apesar das promessas de campanha e de sua atividade no ano passado sobre o assunto.
O objetivo declarado do Reino Unido é continuar o desenvolvimento de planos estratégicos para IA, com o objetivo de estabelecer um roteiro para o futuro. Isso ajudará a coordenar os esforços regulatórios. A situação do país tem suas próprias particularidades. A intenção, pelo menos até o momento, é que a regulamentação seja vertical, por setor.
Mas o estabelecimento de medidas é apenas uma ferramenta para garantir a segurança e a justiça no desenvolvimento da IA sem impedir a inovação. Para isso, o país optou por diretrizes leves.
Primeiros passos regulatórios
O Reino Unido é o terceiro maior setor de IA. Ele fica atrás apenas dos EUA e da China. Atualmente, tem um mercado de mais de US$ 21 bilhões e espera-se que cresça para US$ 1 trilhão até 20235. O país também está em quarto lugar no Global AI Index, que avalia os níveis de investimento em IA, inovação e implantação de tecnologia. Os dois primeiros colocados na classificação são claros, mas Cingapura caiu para o terceiro lugar.
Como um sinal de intenções, o Comitê de Inquérito da Câmara dos Lordes sobre Inteligência Artificial recomendou o incentivo ao financiamento da IA, atraindo talentos e aproximando-os dos cidadãos, em 2018. Pouco tempo depois, foi observado um forte crescimento no investimento em IA, bem como um amplo desenvolvimento em diferentes setores. Mas também houve alertas sobre os desafios apresentados pela tecnologia na educação ou em termos de seu desenvolvimento ético.
Foi em 2023 que chegou o white paper sobre a regulamentação da IA, que resume essa abordagem que busca a inovação sujeita a uma série de princípios. O documento afirma que a inteligência artificial deve ser segura e robusta (em referência à precisão do algoritmo), além de transparente e explicável. A isso se somam outras obrigações: justiça, responsabilidade e governança, bem como procedimentos claros para contestar um resultado ou uma decisão tomada pela IA.
Há leis existentes no país, como a legislação de igualdade ou as leis de proteção de dados, que se aplicam ao setor de IA. Embora haja medidas específicas, definidas pelo Departamento de Ciência, Inovação e Tecnologia, o Fórum de Cooperação Regulatória Digital e o Gabinete do Comissário de Informações. Além disso, esses são apenas órgãos gerais, mas a abordagem do Reino Unido determina que cada setor específico terá sua própria orientação definida por uma organização setorial.
Dessa forma, o conhecimento dos órgãos setoriais deve ser usado para definir melhor a estrutura na qual a IA opera. Isso tem a vantagem de criar medidas mais próximas da realidade, mas também exige uma coordenação completa. Caso contrário, existe o risco de que diferentes reguladores divirjam em sua abordagem legislativa.
O white paper do Reino Unido prevê medidas futuras para mitigar os riscos, como o lançamento de um guia para reguladores pelo governo, monitoramento centralizado, avaliação da estrutura e dos princípios legais, bem como um ambiente seguro para o exercício da regulamentação de IA em diferentes domínios.
Em comparação, a UE tem uma abordagem regulatória mais transversal, em oposição ao modelo top-down do Reino Unido. A regulamentação da IA impõe obrigações legislativas em todos os estágios do ciclo de vida de um sistema de inteligência artificial. Nesse caso, a regulamentação trata do treinamento do algoritmo, de seu teste e avaliação, bem como do gerenciamento e monitoramento de riscos, uma vez no mercado.
Há outra diferença importante. A UE estabeleceu multas por não conformidade de até 30 milhões de euros ou 6% do faturamento global da empresa. No entanto, o Reino Unido não tem nenhum regulamento de penalidades.
A direção do novo governo do Reino Unido
Após a eleição de 4 de julho, esperava-se um progresso na regulamentação da IA. O Partido Trabalhista, que venceu as eleições, havia declarado sua intenção de ir além nessa área. Isso ficou claro no programa político do partido.
Deve-se observar que foi o executivo anterior de Rishi Sunak que promoveu a AI Safety Summit em novembro de 2023. Essa conferência, que foi simbolicamente realizada no Bletchley Park, onde os códigos alemães foram decifrados na Segunda Guerra Mundial, estava repleta de boas intenções. Representantes da OpenAI, Google ou Anthropic estiveram presentes no evento e se comprometeram a dar acesso antecipado a seus modelos a um grupo de trabalho do governo do Reino Unido para fins de avaliação.
No entanto, nada foi concluído em nível regulatório no país.O executivo Rishi Sunak estava preocupado com o fato de que o excesso de regulamentação da inteligência artificial limitaria seu desenvolvimento. Mas ele também estava ciente de que a falta de regulamentação trazia o risco de ação tardia quando necessário. Inicialmente, pensava-se que o novo gabinete de Keir Starmer resolveria esse dilema optando por acelerar a legislação. Mas, por enquanto, não é esse o caso. A posição neste estágio permanece incerta, exceto por uma coisa: a disposição de esperar.