As start-ups de inteligência artificial OpenAI e Anthropic assinaram acordos com o governo dos EUA para pesquisa, teste e avaliação de seus modelos de IA, disse o Instituto de Segurança de Inteligência Artificial dos EUA na quinta-feira.
Os primeiros acordos desse tipo ocorrem em um momento em que as empresas estão enfrentando exame regulatório sobre o uso seguro e ético de tecnologias de inteligência artificial.
Os legisladores da Califórnia devem votar em um projeto de lei nesta semana para regulamentar amplamente como a IA é desenvolvida e implantada no estado.
From zero to Hero with ChatGPT
"A IA segura e confiável é fundamental para o impacto positivo da tecnologia. Nossa colaboração com o Instituto de Segurança de IA dos EUA aproveita sua ampla experiência para testar rigorosamente nossos modelos antes da implementação generalizada", disse Jack Clark, cofundador e diretor de políticas da Anthropic, apoiada pela Amazon e pela Alphabet.
De acordo com os acordos, o AI Security Institute terá acesso aos principais novos modelos da OpenAI e da Anthropic antes e depois de seu lançamento público.
Segurança aprimorada
Os acordos também permitirão pesquisas colaborativas para avaliar as capacidades dos modelos de IA e os riscos associados a eles.
"Acreditamos que o instituto tem um papel fundamental a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial, e esperamos que nosso trabalho em conjunto forneça uma estrutura na qual o resto do mundo possa se basear", disse Jason Kwon, diretor de estratégia da OpenAI, fabricante do ChatGPT.
"Esses acordos são apenas o começo, mas são um marco importante à medida que trabalhamos para ajudar a gerenciar com responsabilidade o futuro da IA", disse Elizabeth Kelly, diretora do AI Security Institute.
O instituto, que faz parte do Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio dos EUA, também colaborará com o Instituto de Segurança de IA do Reino Unido e fornecerá feedback às empresas sobre possíveis melhorias de segurança.
O AI Safety Institute dos EUA foi lançado no ano passado como parte de uma ordem executiva do governo do presidente Joe Biden para avaliar os riscos conhecidos e emergentes dos modelos de inteligência artificial.