Con una trayectoria de tres décadas en el sector tecnológico, Carme Artigas fue escogida como punta de lanza para liderar los esfuerzos de España en IA a comienzos de 2020, ejerciendo como Secretaria de Estado de Digitalización e Inteligencia Artificial durante casi 4 años, un intervalo en el que presidió tanto el Instituto Nacional de Ciberseguridad como la Agencia Española de Supervisión de la Inteligencia Artificial.
A finales de este período, y con España presidiendo el Consejo de la Unión Europea, fue la principal impulsora del AI Act, la ley que regula esta tecnología a nivel europeo. Desde octubre del año pasado también es copresidenta del Consejo Asesor de las Naciones Unidas para Inteligencia Artificial, cargo que sigue desempeñando tras su salida del gobierno.
Hemos podido hablar con Artigas sobre regulación, innovación y cómo Europa trata de conjugar ambas ante todo lo que se viene con la GenAI.
- Con todos los años que llevas en el sector TIC, ¿te imaginabas que íbamos a estar en este punto de desarrollo en 2024?
- Precisamente por eso yo he vivido varias olas de innovación. Viví el inicio de Internet en el 95-96. Viví el inicio del Big Data en 2006. De hecho, cree una compañía pionera. Pero lo que estamos viviendo ya no es un índice de adopción alto, sino una hiperadopción acelerada.
La inteligencia artificial lleva muchos años generándose. El otro gran hito fue 2014 con el deep learning. Realmente lo que es desde hace un año la inteligencia artificial generativa ha supuesto un salto cuántico muy importante por la rapidez de la adopción y por el impacto transformador que va a tener en todas las industrias y también en la sociedad.
- Tal y como están avanzando las cosas en GenAI, ¿Crees que se debería haber 'abrazado' ese parón de seis meses que recomendaban algunos expertos?
- No, para nada. En primer lugar, no es posible, porque tú no puedes parar la innovación, no puedes parar el desarrollo. Todo lo contrario. El desarrollo no se tiene que parar, se tiene que acelerar para que la industria sea capaz de encontrar las soluciones al problema que la propia industria cree.
Además, cuando te refieres a parar... ¿Quién para? ¿Los buenos, los malos, los regulares? La investigación no se tiene que parar. Lo que se tiene que parar es dejar de lanzar productos comerciales que no están listos para ser comercializados. Tú no puedes parar el I+D. Pero tampoco puedes lanzar un producto al mercado beta diciendo que es un producto terminado.
Lo que estamos haciendo con esta regulación europea es no parar la innovación, no parar la investigación. Sin embargo, antes de que un producto se lance al mercado ahí sí que tiene que pasar unas pruebas de calidad. Es como si yo introduzco un medicamento sin análisis clínico o un coche sin airbag y sin frenos.
Lo que ha pasado es que cuando se lanza ChatGPT en el fondo es un producto beta, no acabado, pero que lo lanzas al mercado sin ningún control de calidad. Esto es lo que viene haciendo la industria de los seguros los últimos 40 años y yo creo que esto tiene que cambiar. Para lanzar un producto comercial hay que pasar una serie de controles, porque el impacto de eso es de riesgo, de seguridad, pero también de derechos humanos y fundamentales.
- Respecto al AI Act han pasado unos meses desde su aprobación. Con esta perspectiva actual y tal y como han avanzado las cosas... ¿Opinas que se dejó algo en el tintero? ¿Hay alguna cosa que tendría sentido haber incluido?
- No, porque yo creo que es una ley absolutamente ponderada en lo que son los beneficios y lo que es la parte de regulación. No regula en exceso, no regula la tecnología. Regula solo los usos de riesgo. Pero lo más importante es que esta ley está diseñada de manera completamente distinta. La propia ley contempla los mecanismos de actuación. Es decir, si mañana sale otra cosa, como los agentes, puedes actualizar una serie de mecanismos, de indicadores y de estándares de control en base a una manera muy dinámica. Por tanto, la ley se hizo pensando en que la tecnología cada seis meses va a cambiar.
Ahora ya no estamos en la fase de definición de la ley, sino en la fase de adopción. Y se están cumpliendo los timings previstos. Se ha creado la AI Office a nivel europeo, en España se ha creado la Agencia Nacional de Inteligencia Artificial con un director general y se está avanzando en las recomendaciones y en las guías para la implementación de esta ley. Yo creo que estamos en los tiempos adecuados. A partir de su publicación en el Euro Journal, hay seis meses para eliminar del mercado si los hubiera productos que están dentro de la categoría de usos prohibidos y 24 meses para las obligaciones de usos de alto riesgo.
La clave ahora no es el diseño de la ley, sino su aplicación. Tenemos que aprender del pasado con los errores de la GDPR y centrar los esfuerzos por parte de los gobiernos y la Comisión Europea en ayudar a las pymes para que adopten la ley de manera que sea fácil y no sea costosa.
- En Europa nos hemos colocado en primera línea de regulación en IA, pero ¿Esto no nos frena un poco también la innovación en la región?
- Para nada, porque esto no afecta a la innovación. El I+D está exento. El software libre está exento. Solo que antes de llegar al mercado necesito encontrar una calidad y esto me permite generar confianza. Y cuando tú generas confianza generas un mercado. Es decir, ¿Cuál es el gran problema de la IA? Que nadie se fía.
En EE.UU encuentras demandas de The New York Times contra OpenAI. Aquí no existen, porque la AI Act obliga a cumplir con el copyright. En Europa PRISA, Le Monde y Axel Springer han vendido sus contenidos a OpenAI para que pueda cumplir con la ley. Por lo tanto, en el fondo estoy creando un mercado de monetización de los datos de esos creadores de contenido.
Lo que estamos intentando es generar certezas para el consumidor y certezas para la ciudadanía. La ciudadanía puede estar segura de que en Europa no vas a usar la IA para que los gobiernos controlen a los ciudadanos, porque está prohibido. Tampoco vas a usar la IA contra el crimen como si fuera Minority Report, porque está prohibido. Estamos garantizando el impacto en derechos fundamentales. Yo ya tengo garantías de que cuando eso salga al mercado eso no me va a sesgar, no me va a discriminar, no va a manipular mi mente. Esos son garantías que estamos ya definiendo en Europa. Y si eso se concreta, estamos ofreciendo un mercado de muchas más confianza. Y si confías eso lo vas a comprar.
Sin embargo, el gran problema de Europa nunca ha sido la legislación, ha sido la fragmentación legislativa. No teníamos una ley en Europa, teníamos 27, una para cada país. Lo que hemos hecho desde hace 5 años con la GDPR, con la IA Act, con la DMA... es intentar que haya un único reglamento para toda Europa igual sin cambiar una coma y que entra en vigor el mismo día. Por tanto, ya estamos creando un 'Mercado Único Digital Europeo', que es la clave para ser competitivos.
Lo que veo es que en EE.UU está pasando justo lo contrario. Tenemos la Executive Order de Biden, pero que no la puede imponer a nivel general y tenemos una ley de IA en California que es distinta de la de Texas, que la de Florida, que la de Nueva York... Les puede pasar justo lo contrario, que ellos vayan a una situación de fragmentación legislativa. Yo creo que en Europa hemos aprendido la lección y que estamos en el camino correcto.
- A nivel un poco más local, quedándonos en España, ¿Cómo estás viendo la adopción de GenAI por parte de las empresas?
- Como siempre las grandes empresas de nuestro país la han adoptado rápidamente, pero tenemos que llegar también a las pymes. En esto está la clave. La clave no está en que para ser competitivos tengamos una herramienta europea que compita con ChatGPT, porque también la tendremos. Está la francesa, podremos tener una española...
Pero esto no va a ser lo que va a marcar la diferencia. Lo que va a marcar la diferencia es que el 51% de las empresas americanas ya está adoptando la IA generativa, el 70% de las empresas chinas y únicamente el 15% de las europeas. Es aquí donde tenemos que poner nuestros esfuerzos, en la adopción, en el uso de esos modelos de lenguaje para casos concretos, para la industria vertical, para buscar soluciones a problemas reales.
La generación de negocio va a venir por la innovación derivada de esos en las industrias que tenemos existentes y tradicionales que, sin duda, se van a ver impactadas por esta inteligencia artificial generativa que va a permitir un nivel de hiperautomatización sin precedentes y una gran disrupción. La clave está en lo que son las aplicaciones verticales de la IA, no tanto en los modelos generales.
- ¿Y cómo estamos en España a nivel de colaboración público-privada, Carme?
- Yo creo que hemos sido pioneros en todas estas iniciativas a nivel europeo con multitud de planes y programas, con alguno incluso para que las pymes puedan tener subvenciones para aplicar la IA, pero nos falta mucho conocimiento.
Todo el mundo está empezando a la vez. Hace falta formar a las personas en las nuevas habilidades que van a requerir estas nuevas capacidades y la IA no va a disrumpir de la noche a la mañana el trabajo de las personas, pero las personas que sepan utilizar la IA sí que pueden adelantarse a las personas que no sepan usarla. Por tanto, hay un gran reto para formar en estas habilidades y un gran reto para que las industrias grandes españolas sean locomotoras de la adopción de esta IA generativa y sean competitivas en el ámbito global y que las pymes no se queden atrás.
- Está claro que la IA generativa está marcando una revolución, pero ¿No crees que estamos también en un momento de burbuja en el que todo el mundo 'se viste' con IA, vende cosas con IA, que hay algunas startups que se ponen un poco esta etiqueta, etc?
- Sí, obviamente. Si tu quieres que inviertan tendrás que venderte de la mejor manera posible, pero entonces será en todo caso la inteligencia de los fondos de inversión la que distinga lo bueno de lo malo. Lo que es importante es que hay gran oportunidad y que hay una amplia cantidad de mundos por explorar, que hay muchísimas oportunidades de aplicar eso en sectores concretos.
No me parece que sea una burbuja, en el sentido de que haya una burbuja en la que no se sabe dónde está el valor. Yo creo que hay una gran oportunidad de disrupción, muchos casos de uso donde se pueden aportar muchas cosas, en campos como la salud, la accesibilidad, la educación, de cualquier sector de actividad.. Pero esto tiene que ir acompañado también de unos límites éticos. En el ámbito de la seguridad también hay grandes oportunidades.
Tenemos la obligación de que no haya ninguna idea por parte de ningún emprendedor español o europeo que se quede en el tintero porque no encuentre financiación. Creo que aquí es donde tenemos que articular mecanismos, como los fondos que ya se están dando para que la Unión Europea lidere esta revolución. No hay nada que impida que lo podamos hacer.
- ¿Cómo imagina Carme Artigas que será nuestro futuro gracias a la IA en 5 años? ¿Qué es lo que más te inquieta o te apasiona de esta tecnología?
- El futuro no está escrito. Lo decidimos cada día con nuestras elecciones y nuestras acciones. Por lo tanto, esa imagen de que no tenemos más remedio, de que es una verdad inevitable, que va a venir un escenario distópico es absolutamente falso. No nos creamos ese escenario inevitable.
La IA tiene grandes beneficios y la clave es que sepamos repartir los beneficios y los costes de manera equitativa en la sociedad, que no solo unos se lleven los beneficios y otros los costes. Tenemos que hace un esfuerzo de que este desarrollo tecnológico sin precedentes sea ético, no se lleve por delante derechos y garantías fundamentales.
Europa tiene un rol muy importante en asegurar todo esto. Tenemos unos principios y valores que estamos proyectando al resto del mundo. Siempre digo que la IA europea no es un estándar tecnológico, no es un estándar legal, es un estándar moral. Le estamos diciendo al mundo lo que queremos que sea o no sea.
Desde mi labor de Naciones Unidas donde estamos viendo una perspectiva global y la necesidad de que esto no se regule solo a nivel nacional, sino que hay unos compromisos a nivel global, de que no nos saltaremos los derechos humanos o el derecho internacional creo que hay una gran oportunidad de capacitación también en el sur global.
La ventaja que tenemos aquí es que todo lo que era la brecha digital tradicional -cómo yo permito acceder a este mundo a gente sin recursos o sin estudios o a gente mayor- ya queda resuelto. Y es que no hay ninguna barrera de entrada, ya que todo el mundo sabe hablar. Cualquiera puede tener acceso a estos beneficios. Lo que debemos asegurarnos es que esto no está controlado por cuatro, que no tienen cajas negras, que hay mecanismos de transparencia y mecanismos de control.