Se suele decir que la regulación va por detrás de la tecnología. Hay muchos ejemplos de ello y no hay manera de que invertir el orden. Con la inteligencia artificial ha sucedido lo mismo. Aunque tal vez en este caso los legisladores han tratado de actuar con rapidez. La avalancha de cambios que promete traer la IA ha espoleado la actividad de los despachos. La Unión Europea es el esfuerzo más representativo, pero en muchos otros países también han trabajado en esta dirección.
En China se han aprobado medidas interinas para encarrilar la IA, Estados Unidos tiene pendiente concretar un marco tras la orden ejecutiva de Biden, mientras que en varios países de Latinoamérica se han propuesto legislaciones. En la propia región de la UE ni siquiera a día de hoy ha entrado en vigor completamente la regulación. Lo hará de forma progresiva, a lo largo de los dos próximos años (hay algunas disposiciones que se aplicarán hasta tres años después).
Resulta exagerado decir que existe un vacío en la legislación. Normalmente los cuerpos normativos cubren muchos campos sobre los que impacta la IA, como la protección de datos personales, la propiedad intelectual o sencillamente algunos de los derechos fundamentales de las personas. Sin embargo, hasta que la normativa específica no llegue, algunas partes de la inteligencia artificial estarán sujetas a la autorregulación.
Esto quiere decir que la tarea de imponer límites estará en manos de las empresas y de los usuarios. Esto no solo apela a las desarrolladoras de sistemas, como pueden ser OpenAI, Google y muchas otras, desde las grandes tecnológicas hasta un pequeño desarrollador individual. La autorregulación también es una obligación de las compañías o usuarios individuales que despliegan la IA, es decir, aquellos que la utilizan.
El papel de desarrolladores y usuarios
Es un tema de debate. Incluso con un cuerpo normativo exhaustivo, el papel de las empresas desarrolladoras de IA estará siempre en el punto de mira. Son las que crean los algoritmos, los entrenan y los dirigen hacia ciertas tareas. El producto ya está cocinado cuando llega a las manos de los usuarios.
Normalmente los desarrolladores se enfrentan un conflicto de intereses. En la lógica de las empresas está el llegar pronto al mercado, incrementar las ventas y rentabilizar al máximo la inversión. De esta forma, se corre el riesgo de priorizar todo esto sobre una vigilancia ética rigurosa, orientada a eliminar sesgos potenciales del algoritmo, inexactitudes o alucinaciones.
A lo largo de los últimos años hemos visto sonados casos de algoritmos con sesgos racistas y sexistas, así como herramientas cuya utilización puede resultar nociva para las sociedades. Como ejemplo de esto último tenemos los deepfakes de fotografía, vídeo y voz, que se han convertido en una auténtica fórmula mágica para generar desinformación. Y también aquí hablaríamos de la necesidad de autorregulación en los usuarios, que son quienes utilizan con mala praxis estas herramientas. Sin embargo, nada puede evitar que este tipo de software caiga en malas manos, con lo que un diseño ético desde el principio limitaría los daños.
Para que la autorregulación funcione, al menos hasta que llegue la legislación, las compañías deben establecer metodologías concretas para contener los daños. A día de hoy es impensable lanzar un algoritmo al mercado sin un proceso previo de evaluación. Lo hace OpenAI y todas las empresas implicadas en el sector. Sin embargo, esta evaluación puede estar enfocada puramente al rendimiento del modelo o ir un poco más allá y estar permeada por una perspectiva ética.
Los usuarios, que pueden ser otras empresas, también tienen un papel esencial como ejecutores de las aplicaciones de inteligencia artificial. Para empezar, son los encargados de valorar en qué casos de uso se puede aplicar la tecnología y en cuáles no se debe hacerlo. A esto se suma que son quienes deciden de qué forma utilizar los modelos, un factor que influye plenamente en los resultados.
Los límites de la autorregulación
Se puede asumir que hasta cierto punto la autorregulación funciona. El ánimo de lucro de las empresas puede coexistir con las aspiraciones éticas y las garantías de seguridad. Sin embargo, también se puede decir que este enfoque ya ha provocado problemas relevantes, relacionados con cuestiones de privacidad, desinformación e incluso manipulación de usuarios.
La autorregulación puede servir como primer muro de contención y mitigar ciertos riesgos. Pero también tiene limitaciones. Evidentemente, no existe ninguna fórmula coercitiva que obligue a tener un enfoque ético. Además, al no haber una obligación de transparencia, toda la efectividad queda al arbitrio de la empresa y de la información que esta desee compartir.
Como caso paradigmático de autorregulación organizada podemos citar el lanzamiento del Frontier Model Forum. A mediados del pasado año, cuatro de las compañías punteras en inteligencia artificial generativa, Microsoft, Google, OpenAI y Anthropic, anunciaron esta plataforma, destinada a garantizar que las empresas implicadas en el sector se ajustan a prácticas responsables y seguras. Posteriormente se han sumado a la iniciativa Amazon y Meta, las otras dos grandes tecnológicas que más destacan en el mercado de la IA.