Las empresas emergentes de inteligencia artificial OpenAI y Anthropic firmaron acuerdos con el gobierno de Estados Unidos para la investigación, prueba y evaluación de sus modelos de IA, según informó este jueves el Instituto de Seguridad de la Inteligencia Artificial de Estados Unidos.
Los primeros acuerdos de este tipo llegan en un momento en el que las empresas se enfrentan al escrutinio regulatorio sobre el uso seguro y ético de las tecnologías de inteligencia artificial.
Los legisladores de California están listos para votar sobre un proyecto de ley esta semana para regular ampliamente cómo se desarrolla e implementa la IA en el estado.
"La IA segura y confiable es fundamental para el impacto positivo de la tecnología. Nuestra colaboración con el Instituto de Seguridad de la IA de Estados Unidos aprovecha su amplia experiencia para probar rigurosamente nuestros modelos antes de su implementación generalizada", dijo Jack Clark, cofundador y director de políticas de Anthropic, respaldado por Amazon y Alphabet.
Según los acuerdos, el Instituto de Seguridad de la IA tendrá acceso a los principales modelos nuevos de OpenAI y Anthropic antes y después de su lanzamiento público.
Mayor seguridad
Los acuerdos también permitirán la investigación colaborativa para evaluar las capacidades de los modelos de IA y los riesgos asociados con ellos.
"Creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo de Estados Unidos en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco sobre el que el resto del mundo pueda construir", aseguró Jason Kwon, director de estrategia de OpenAI, fabricante de ChatGPT.
"Estos acuerdos son solo el comienzo, pero son un hito importante a medida que trabajamos para ayudar a gestionar de manera responsable el futuro de la IA", señaló Elizabeth Kelly, directora del Instituto de Seguridad de la IA.
El instituto, que forma parte del Instituto Nacional de Normas y Tecnología (NIST, por sus siglas en inglés) del Departamento de Comercio de Estados Unidos, también colaborará con el Instituto de Seguridad de la IA del Reino Unido y proporcionará comentarios a las empresas sobre posibles mejoras de seguridad.
El Instituto de Seguridad de la IA de EE.UU. se lanzó el año pasado como parte de una orden ejecutiva de la administración del presidente Joe Biden para evaluar los riesgos conocidos y emergentes de los modelos de inteligencia artificial.