A finales de 2023, el Parlamento Europeo y la Comisión Europea llegaron a un acuerdo sobre el texto de la Ley de IA de la UE. A falta de que ambas instituciones, sumadas al Consejo Europeo, aprueben definitivamente el documento, ya se anticipa el marco que desarrollará la nueva norma. Si todo marcha según lo previsto, la entrada en vigor será dos años después de su aparición en el Diario Oficial de la UE. Se espera que el texto se aplique en su totalidad a partir de 2026.

La inteligencia artificial es una tecnología que ofrece grandes oportunidades para la innovación, la competitividad y el bienestar social. Sin embargo, también plantea desafíos éticos, jurídicos y sociales que deben abordarse de forma adecuada. Por eso, en 2024 entraron en vigor una serie de regulaciones de la IA que establecen un marco común para garantizar el desarrollo y el uso responsable de la IA en la Unión Europea.

Si tu empresa utiliza o desarrolla aplicaciones con inteligencia artificial deberá tener clara la normativa. En este artículo te explicamos en qué consiste la regulación, cómo se delimitan los niveles de riesgo y cuáles son los ámbitos de aplicación.

La clasificación de herramientas de IA según su nivel de riesgo

La regulación de la IA planteada por la Unión Europea clasifica las aplicaciones en cuatro niveles de riesgo: prohibido, alto, limitado y mínimo.

  • Prohibidas: son aquellas aplicaciones de IA que vulneran los valores y principios fundamentales de la UE, como la dignidad humana, la democracia o el Estado de derecho. Por ejemplo, la manipulación del comportamiento humano, la vigilancia masiva o la puntuación social por parte de algún gobierno. Estas aplicaciones están prohibidas y no se pueden desarrollar ni utilizar en la UE.
  • Nivel de riesgo alto: son aquellas aplicaciones de IA que pueden causar un daño significativo a las personas o a la sociedad. Estas incluyen aplicaciones de IA que se utilicen en materias de seguridad pública, la salud, la educación, el empleo o el acceso a los servicios esenciales. Dentro de esta categoría se incluye a los sistemas de reconocimiento facial, los sistemas de diagnóstico médico o los sistemas de selección de personal. Estas aplicaciones están sujetas a requisitos estrictos de calidad, transparencia, supervisión humana y responsabilidad.
  • Nivel de riesgo medio: son aquellas aplicaciones de IA que pueden tener un impacto negativo en los derechos o intereses de las personas, pero que pueden ser mitigados utilizando las medidas adecuadas. Por ejemplo, los sistemas de publicidad personalizada, los sistemas de recomendación de contenidos o los chatbots. Estas aplicaciones deben cumplir con ciertas obligaciones de transparencia de la información y el consentimiento de cara a los usuarios
  • Nivel de riesgo mínimo: son aquellas aplicaciones de IA que no presentan un riesgo significativo para las personas o la sociedad, o que ya están reguladas por otras normas. Por ejemplo, los sistemas de videojuegos, los sistemas de asistencia al conductor o de gestión de inventarios. Estas aplicaciones no están sujetas a requisitos específicos, pero deben respetar las normas generales de protección de datos, consumo, competencia y no discriminación.

 

Cuál es el ámbito de aplicación de la Ley de IA de la UE

Las regulaciones europeas de la IA se aplican a todas las aplicaciones que se desarrollan o utilizan en la UE, independientemente de la ubicación o la nacionalidad de los proveedores o los usuarios. De la misma manera, se aplican a las aplicaciones de IA que se importan o exportan desde o hacia la UE, siempre que afecten a sus ciudadanos o intereses.

Es importante clarificar que las regulaciones de la IA no se aplican a las aplicaciones que se utilizan exclusivamente con fines militares o de seguridad nacional, ni a las aplicaciones de IA que se desarrollan o utilizan con fines de investigación, experimentación, prueba o verificación.

Las obligaciones de las empresas que utilizan o desarrollan IA

Las empresas que utilizan o desarrollan aplicaciones de IA deben cumplir con las obligaciones que les corresponden según el nivel de riesgo de la aplicación. Estas obligaciones pueden variar según el rol que desempeñen en la cadena de valor de la IA: proveedor, distribuidor, usuario o afectado.

  • Proveedor: es la persona física o jurídica que desarrolla una aplicación de IA o que la pone a disposición de terceros, ya sea mediante venta, alquiler, licencia o cualquier otra forma de distribución. El proveedor es el responsable principal de cumplir con las regulaciones de la IA y debe asegurarse de que la aplicación cumpla con los requisitos de calidad, transparencia, supervisión humana y responsabilidad que le correspondan según el nivel de riesgo. Además, el proveedor debe realizar una evaluación de riesgo de la IA, registrar la aplicación en una base de datos pública, cooperar con las autoridades de supervisión y notificar cualquier incidente o mal funcionamiento de la aplicación.
  • Distribuidor: es la persona física o jurídica que transmite una aplicación de IA de un proveedor a un usuario sin modificarla ni alterarla. El distribuidor debe verificar que el proveedor haya cumplido con las obligaciones que le corresponden según el nivel de riesgo de la IA y debe informar al usuario sobre las características y el funcionamiento de la aplicación. Además, el distribuidor debe cooperar con las autoridades de supervisión y notificar cualquier incidente o mal funcionamiento de la IA.
  • Usuario: es la persona física o jurídica que utiliza una aplicación de IA para sus propios fines o para prestar un servicio a terceros. El usuario debe respetar las instrucciones y las condiciones de uso establecidas por el proveedor o el distribuidor de la aplicación de IA y debe supervisar su funcionamiento de forma adecuada. Además, el usuario debe cooperar con las autoridades de supervisión y notificar cualquier incidente o mal funcionamiento de la IA.
  • Afectado: es la persona física o jurídica cuyos derechos o intereses pueden verse afectados por el uso de una aplicación de IA, ya sea directa o indirectamente. El afectado tiene derecho a recibir información clara y comprensible sobre el uso de la IA y sobre sus implicaciones, a dar su consentimiento libre e informado cuando sea necesario, a ejercer su control sobre la aplicación cuando sea posible, y a reclamar y obtener una reparación cuando sufra un daño causado por la IA.

Esta regulación busca garantizar el desarrollo y el uso ético, seguro y fiable de la IA en la UE. Si eres una empresa que utiliza o desarrolla soluciones de IA, debes conocer y cumplir estas regulaciones, según el nivel de riesgo, el ámbito de aplicación y las obligaciones que te corresponden. De esta forma, contribuirás a fomentar la confianza y la aceptación de la IA entre los ciudadanos, los clientes y los socios, y a aprovechar las oportunidades que pueden ofrecer para el crecimiento y la competitividad de tu negocio