Los legisladores de California han propuesto un nuevo proyecto de ley para regular el desarrollo de grandes modelos de IA, exigiendo protocolos de seguridad, supervisión y medidas de cumplimiento para prevenir riesgos como el desarrollo de armas y daños a la infraestructura una especie de 'botón del pánico'.
El proyecto de ley apunta a grandes empresas tecnológicas como OpenAI, Anthropic y Cohere, imponiendo pruebas de seguridad, evaluaciones de riesgo, un 'botón del pánico' para modelos peligrosos y la divulgación de esfuerzos de cumplimiento, con sanciones por incumplimiento.
El proyecto cuenta con el apoyo de pioneros de la IA como Geoffrey Hinton y Yoshua Bengio, quienes reconocen los riesgos existenciales de la IA. Sin embargo, ha generado preocupaciones en la comunidad tecnológica, con algunos trabajadores y fundadores considerando abandonar California por temor a que se obstaculicen la adopción empresarial, la innovación y los proyectos de código abierto.
Grandes organizaciones de IA y empresas tecnológicas critican el proyecto de ley, argumentando que podría alejar la innovación de California, generar excesivas responsabilidades, imponer cargas a las pequeñas empresas de IA y a los desarrolladores de código abierto, potencialmente desacelerando la adopción de IA y aumentando los costos para los clientes.
El proyecto ha sido aprobado por el Senado estatal y espera una votación en la Asamblea General en agosto, pero la oficina del Gobernador Gavin Newsom ha declinado comentar sobre la legislación pendiente, advirtiendo contra la regulación excesiva de la IA.
En contra
El senador Wiener ha revisado el proyecto de ley para eximir a los desarrolladores de código abierto de la responsabilidad por los usos negativos de sus plataformas. La ley propuesta también incluye la creación de una agencia gubernamental para supervisar a los desarrolladores de IA y proporcionar directrices para futuros modelos poderosos de IA.
Un importante inversor de capital riesgo de Silicon Valley declaró el viernes al Financial Times que ha recibido quejas de fundadores de empresas tecnológicas que han pensado en abandonar California en respuesta a la legislación propuesta.
"Mi consejo a todos los que me preguntan es que nos quedemos y luchemos", dijo. "Pero esto enfriará el código abierto y el ecosistema de las nuevas empresas. Creo que algunos fundadores optarán por marcharse".
Las mayores objeciones de las empresas tecnológicas a la propuesta son que ahogará la innovación al disuadir a los ingenieros de software de asumir riesgos con sus productos por miedo a un escenario hipotético que quizá nunca llegue a producirse.
Andrew Ng, experto en inteligencia artificial que ha dirigido proyectos en Google y la empresa china Baidu, declaró al FT: "Si alguien quisiera proponer una normativa para ahogar la innovación, difícilmente podría hacerlo mejor".
Arun Rao, jefe de producto de IA generativa en Meta, escribió en X la semana pasada que el proyecto de ley era "inviable" y que "acabaría con el código abierto".
El resultado del proyecto de ley podría impactar en la confianza pública en los sistemas de IA, y las voces de la industria enfatizan la necesidad de regulaciones precisas para mantener la innovación sin aumentar los costos para los clientes.
"El impacto fiscal neto de destruir la industria de la inteligencia artificial y expulsar a las empresas podría ascender a miles de millones, ya que tanto las empresas como los trabajadores mejor pagados se marcharían", escribió Rao.
El enfoque de California podría influir en otros estados, destacando la importancia de los esfuerzos coordinados en medio de un mosaico de proyectos de ley estatales sobre IA mientras se espera la legislación federal.