En medio de un contexto regulatorio que avanza sin mirar hacia atrás, Reino Unido titubea. Es uno de los países más influyentes en el sector de la inteligencia artificial, pero aún no se ha decidido a legislar el sector. Más aún, está a la expectativa pese a las promesas hechas en campaña electoral y a su actividad del último año en torno a la cuestión.
El objetivo declarado del Reino Unido es continuar con un desarrollo de planes estratégicos de IA, con el fin de afianzar unas líneas que sirvan de guía en el futuro. De esta forma se propiciará una coordinación del esfuerzo regulatorio. Y es que el panorama del país tiene particularidades. Su intención, al menos hasta ahora, es que la regulación se dé en vertical, por sectores.
Pero el establecimiento de medidas es solo una herramienta para garantizar la seguridad y la justicia en el desarrollo de la IA sin estorbar la innovación. Para ello, el país se ha decantado por trazar unas líneas maestras ligeras.
Primeros pasos regulatorios
El del Reino Unido es el tercer sector de IA por tamaño. Solo lo superan Estados Unidos y China. En estos momentos cuenta con un mercado de más de 21.000 millones de dólares y se espera que crezca hasta el billón de dólares en 20235. Además, el país es el cuarto en el Global AI Index, que evalúa los niveles de inversión en IA, innovación e implementación de la tecnología. Los dos primeros del ranking están claro, pero en la tercera posición se cuela Singapur.
Como muestra de las intenciones, la Comisión de Investigación sobre Inteligencia Artificial de la Cámara de los Lores recomendó incentivar la financiación de la IA, atraer talento y acercarla a los ciudadanos, en 2018. Poco más tarde se constató un fuerte crecimiento de la inversión en IA, así como un desarrollo amplio en diferentes sectores. Pero también se alertó de los retos que planteaba la tecnología en la educación o en lo que se refiere a su desarrollo ético.
Fue en 2023 cuando llegó el white paper sobre regulación en IA, que resume este enfoque que busca la innovación sujeta a una serie de principios. El documento señala que la inteligencia artificial debe ser segura y robusta (en referencia a la precisión del algoritmo), así como transparente y explicable. A estos se suman otras obligaciones: justicia, responsabilidad y gobernanza, así como procedimientos claros para disputar un resultado o decisión tomada por la IA.
En el país existen leyes, como la legislación de igualdad o las de protección de datos, que se aplican al sector de la IA. Si bien habrá medidas específicas, definidas por el Departamento de Ciencia, Innovación y Tecnología, el Foro de Cooperación para la Regulación Digital y la Oficina del Comisario de Información. Más aún, estos solo son entidades generales, pero el enfoque británico dicta que cada sector concreto tenga su propia guía marcada por una organización sectorial.
De esta forma, se quiere poner en valor el conocimiento de las entidades sectoriales para definir de manera más adecuada el marco en el que se desenvuelve la IA. Esto tiene la ventaja de crear medidas más pegadas a la realidad, pero también requiere de una coordinación a conciencia. De otra forma, se incurre en el riesgo de que los diferentes reguladores diverjan en su aproximación legislativa.
El whitepaper de Reino Unido contempla medidas futuras para mitigar riesgos, como el lanzamiento de una guía para los reguladores por parte del gobierno, una monitorización centralizada, la evaluación del marco legal y de los principios, así como un entorno seguro para ejercer la regulación de la IA desde distintos ámbitos.
En comparación, la Unión Europea tiene un enfoque regulatorio más transversal, en oposición al modelo vertical del Reino Unido. El reglamento de la IA impone obligaciones legislativas en todas las etapas del ciclo de vida de un sistema de inteligencia artificial. En este caso, la normativa se ocupa del entrenamiento del algoritmo, de su ensayo y evaluación, así como de la gestión de los riesgos y de su monitorización, una vez en el mercado.
Hay otra diferencia importante. La Unión Europea ha establecido sanciones por incumplimiento que alcanzan los 30 millones de euros o el 6% de la facturación global de la compañía. Sin embargo, Reino Unido no cuenta con un reglamento sancionador.
La dirección del nuevo gobierno británico
Tras las elecciones del 4 de julio, se esperaban avances en la regulación de la IA. El partido laborista, ganador de los comicios, había declarado su intención de profundizar en este aspecto. Así se desprendía de su programa político.
Hay que tener en cuenta que el anterior ejecutivo de Rishi Sunak fue quien promovió la AI Safety Summit, en noviembre de 2023. Esta conferencia, cargada de simbolismo al celebrarse en Bletchley Park, donde se descifraron los códigos de los alemanes en la Segunda Guerra Mundial, estuvo sembrada de buenas intenciones. En el evento se presentaron representantes de OpenAI, Google o Anthropic, que se comprometieron a dar acceso temprano a sus modelos a un grupo de trabajo del gobierno de Reino Unido con fines de evaluación.
Sin embargo, nada se concluyó en el plano regulatorio del país. El ejecutivo de Rishi Sunak se mostró preocupado por si la regulación excesiva de la inteligencia artificial limitaría su desarrollo. Pero también era consciente de que la falta de normativa conllevaba el riesgo de una actuación tardía cuando se necesitara. En principio se pensaba que el nuevo gabinete de Keir Starmer saldaría esta disyuntiva, al decantarse por acelerar la legislación. Pero, de momento no será así. La posición en estos momentos sigue siendo incierta salvo en una voluntad: la de esperar.