Costuma-se dizer que a regulamentação fica atrás da tecnologia. Há muitos exemplos disso e não há como inverter a ordem. O mesmo aconteceu com a inteligência artificial. Embora talvez, nesse caso, os legisladores tenham tentado agir rapidamente. A avalanche de mudanças que a IA promete trazer estimulou a atividade dos escritórios de advocacia. A União Europeia é o esforço mais representativo, mas muitos outros países também têm trabalhado nessa direção.
A China aprovou medidas provisórias para colocar a IA nos trilhos, os EUA ainda precisam finalizar uma estrutura após a ordem executiva de Biden, enquanto a legislação foi proposta em vários países da América Latina. Na própria região da UE, a regulamentação ainda não entrou totalmente em vigor. Ela será introduzida gradualmente nos próximos dois anos (algumas disposições serão aplicadas por até três anos).
É um exagero dizer que há uma lacuna na legislação. Normalmente, os corpos de leis abrangem muitos campos que são afetados pela IA, como proteção de dados pessoais, propriedade intelectual ou simplesmente alguns dos direitos fundamentais dos indivíduos. Entretanto, até que haja uma regulamentação específica, algumas partes da inteligência artificial estarão sujeitas à autorregulamentação.
Isso significa que a tarefa de impor limites estará nas mãos de empresas e usuários. Isso se aplica não apenas aos desenvolvedores de sistemas, como a OpenAI, o Google e muitos outros, desde as grandes empresas de tecnologia até o pequeno desenvolvedor individual. A autorregulação também é uma obrigação das empresas ou dos usuários individuais que implantam a IA, ou seja, aqueles que a utilizam.
A função dos desenvolvedores e usuários é uma questão de debate. Mesmo com um corpo abrangente de regulamentação, o papel das empresas desenvolvedoras de IA sempre estará em destaque. São elas que criam os algoritmos, treinam-nos e os direcionam para determinadas tarefas. O produto já está pronto quando chega às mãos dos usuários.
Os desenvolvedores geralmente enfrentam um conflito de interesses. A lógica das empresas é chegar ao mercado mais cedo, aumentar as vendas e maximizar o retorno sobre o investimento. Dessa forma, eles correm o risco de priorizar tudo isso em detrimento de uma rigorosa vigilância ética, destinada a eliminar possíveis vieses, imprecisões ou alucinações do algoritmo.
Nos últimos anos, vimos casos de alto nível de algoritmos com vieses racistas e sexistas, bem como ferramentas cujo uso pode ser prejudicial às sociedades. Como exemplo desse último caso, temos os deepfakes de fotografia, vídeo e voz, que se tornaram uma verdadeira fórmula mágica para gerar desinformação. E aqui também falaríamos sobre a necessidade de autorregulação entre os usuários, que são os que fazem mau uso dessas ferramentas. No entanto, nada pode impedir que esse software caia em mãos erradas, portanto, um projeto ético desde o início limitaria os danos.
Para que a autorregulação funcione, pelo menos até a chegada da legislação, as empresas devem estabelecer metodologias concretas para conter os danos. Hoje é impensável lançar um algoritmo no mercado sem um processo de avaliação prévio. Isso é feito pela OpenAI e por todas as empresas envolvidas no setor. No entanto, essa avaliação pode ser puramente focada no desempenho do modelo ou ir um pouco além e ser permeada por uma perspectiva ética.
Os usuários, que podem ser outras empresas, também desempenham um papel essencial como implementadores de aplicativos de inteligência artificial. Para começar, eles são os responsáveis por avaliar em quais casos de uso a tecnologia pode ser aplicada e em quais ela não deve ser aplicada. Além disso, são eles que decidem como usar os modelos, um fator que influencia totalmente os resultados.
Os limites da autorregulação
Pode-se presumir que a autorregulação funciona até certo ponto. O objetivo de lucro das empresas pode coexistir com aspirações éticas e garantias de segurança. No entanto, também se pode dizer que essa abordagem já causou problemas relevantes, relacionados a questões de privacidade, desinformação e até mesmo manipulação de usuários.
A autorregulação pode servir como um primeiro muro de contenção e mitigar certos riscos. Mas ela também tem limitações. Obviamente, não existe uma fórmula coercitiva que force uma abordagem ética. Além disso, na ausência de uma obrigação de transparência, toda a eficácia é deixada a critério da empresa e das informações que ela deseja compartilhar.
Um caso paradigmático de autorregulação organizada é o lançamento do Frontier Model Forum. Em meados do ano passado, quatro das principais empresas de inteligência artificial generativa, Microsoft, Google, OpenAI e Anthropic, anunciaram essa plataforma, com o objetivo de assegurar que as empresas envolvidas no setor aderissem a práticas responsáveis e seguras. Posteriormente, a Amazon e a Meta, as outras duas grandes empresas de tecnologia que são as mais proeminentes no mercado de IA, aderiram à iniciativa.