OpenAI ha expresado su rechazo al proyecto de ley SB 1047, impulsado en California, que busca garantizar un despliegue seguro de la inteligencia artificial (IA). La compañía argumenta que las nuevas restricciones propuestas podrían frenar el crecimiento de la industria tecnológica en el estado, según una carta enviada por Jason Kwon, director de estrategia de OpenAI, al senador Scott Wiener.
El proyecto de ley SB 1047 ha generado una división significativa en Silicon Valley. Mientras que algunos apoyan la necesidad de controlar los riesgos asociados con los modelos de IA avanzados, los críticos sostienen que las propuestas de Wiener podrían ahogar a las startups, beneficiar a competidores internacionales y debilitar la posición central de California en el auge de la IA.
OpenAI, respaldada por una inversión de 13 mil millones de dólares de Microsoft, se une a otras empresas tecnológicas en la oposición al proyecto de ley. Aunque la empresa apoya las medidas para desarrollar y desplegar sistemas de IA de manera segura, argumenta que la regulación debería ser una responsabilidad del gobierno federal, no de los estados individuales.
Scott Wiener, por su parte, reconoció que el gobierno federal debería liderar la regulación de la IA, pero expresó escepticismo sobre la capacidad del Congreso para actuar con rapidez. Además, rechazó la noción de que las startups tecnológicas se mudarían fuera del estado si se aprueba la ley, calificando este argumento como "gastado".
El proyecto de ley ha sido objeto de intensas campañas de cabildeo por parte de grupos tecnológicos de Silicon Valley y de inversores, incluidos Anthropic, Andreessen Horowitz y YCombinator. La ex presidenta de la Cámara de Representantes, Nancy Pelosi, también se pronunció en contra de la ley, calificándola como "bien intencionada pero mal informada".
Entre los elementos más controvertidos de la propuesta inicial del senador Wiener se encuentran las demandas de que las empresas de IA garanticen a un nuevo organismo estatal que no desarrollarán modelos con capacidades peligrosas y la creación de un "interruptor de apagado" para desactivar modelos de IA poderosos. Aunque algunos de estos requisitos se suavizaron en enmiendas recientes, las críticas persisten.
A pesar de las modificaciones, los detractores argumentan que el proyecto de ley sigue imponiendo requisitos excesivos y, a veces, poco realistas a las startups. Miembros del Congreso de EE.UU., como Anna Eshoo y Zoe Lofgren, instaron a centrarse en la creación de reglas federales que controlen las herramientas físicas necesarias para desarrollar amenazas físicas, en lugar de imponer normativas estatales.
El proyecto de ley SB 1047 ha encontrado respaldo entre figuras destacadas en el ámbito de la IA, como Geoffrey Hinton y Yoshua Bengio, quienes consideran razonable exigir a los laboratorios de IA que prueben sus modelos en busca de riesgos catastróficos.
La Asamblea Estatal de California votará sobre el proyecto antes de fin de mes, y la decisión final recaerá en el gobernador Gavin Newsom, quien deberá firmar la ley o vetarla, según reportó The Financial Times.