Os legisladores da Califórnia propuseram um novo projeto de lei para regulamentar o desenvolvimento de grandes modelos de IA, exigindo protocolos de segurança, supervisão e medidas de conformidade para prevenir riscos como o desenvolvimento de armas e danos à infraestrutura, uma espécie de 'botão de pânico'.
O projeto de lei tem como alvo grandes empresas de tecnologia, como a OpenAI, Anthropic e Cohere, impondo testes de segurança, avaliações de risco, um botão de pânico' para modelos perigosos e divulgação de esforços de conformidade, com penalidades por não conformidade.
O projeto tem o apoio de pioneiros da IA, como Geoffrey Hinton e Yoshua Bengio, que reconhecem os riscos existenciais da IA. No entanto, isso levantou preocupações na comunidade tecnológica, com alguns trabalhadores e fundadores considerando deixar a Califórnia por medo de prejudicar a adoção empresarial, a inovação e os projetos de código aberto.
Grandes organizações de IA e empresas de tecnologia criticam o projeto de lei, argumentando que ele poderia afastar a inovação da Califórnia, criar responsabilidades excessivas, impor ônus às pequenas empresas de IA e aos desenvolvedores de código aberto, potencialmente retardando a adoção da IA e aumentando os custos para os clientes.
O projeto de lei foi aprovado no Senado estadual e aguarda votação na Assembleia Geral em agosto, mas o escritório do governador Gavin Newsom se recusou a comentar sobre a legislação pendente, alertando contra a regulamentação excessiva da IA.
Contra
O senador Wiener revisou o projeto de lei para isentar os desenvolvedores de código aberto de responsabilidade por usos negativos de suas plataformas. A lei proposta também inclui a criação de uma agência governamental para supervisionar os desenvolvedores de IA e fornecer diretrizes para futuros modelos poderosos de IA.
Um importante capitalista de risco do Vale do Silício disse ao Financial Times na sexta-feira que recebeu reclamações de fundadores de empresas de tecnologia que consideraram deixar a Califórnia em resposta à legislação proposta.
"Meu conselho a todos que me perguntam é que permaneçam e lutem", disse ele. "Mas isso vai esfriar o código aberto e o ecossistema de startups. Acho que alguns fundadores optarão por sair."
As maiores objeções das empresas de tecnologia à proposta são que ela sufocará a inovação ao desencorajar os engenheiros de software a assumir riscos com seus produtos por medo de um cenário hipotético que talvez nunca aconteça.
Andrew Ng, especialista em inteligência artificial que liderou projetos no Google e no Baidu da China, disse ao FT: "Se alguém quisesse propor uma regulamentação para sufocar a inovação, dificilmente poderia fazer algo melhor.
Arun Rao, chefe de produtos de IA generativa da Meta, escreveu no X na semana passada que o projeto de lei era "impraticável" e "mataria o código aberto".
O resultado do projeto de lei poderia impactar a confiança do público nos sistemas de IA, e as vozes do setor enfatizam a necessidade de regulamentações precisas para manter a inovação sem aumentar os custos para os clientes.
"O impacto fiscal líquido da destruição do setor de inteligência artificial e da morte de empresas poderia chegar a bilhões, já que tanto as empresas quanto os trabalhadores com salários mais altos iriam embora", escreveu Rao.
A abordagem da Califórnia poderia influenciar outros estados, destacando a importância de esforços coordenados em meio a uma colcha de retalhos de projetos de lei estaduais sobre IA enquanto se aguarda a legislação federal.