La inteligencia artificial (IA) se ha convertido en un motor global que afecta a casi todas las industrias. Ante su rápida expansión, gobiernos como los de la Unión Europea (UE), EE. UU., Reino Unido, Brasil y China están redactando políticas para encontrar un equilibrio entre la innovación y la supervisión. La Ley de IA de la UE, la Orden Ejecutiva de IA de EE. UU. y las leyes específicas de China demuestran la diversidad de los esfuerzos globales.
El mercado global de IA se prevé que alcance los 500 mil millones de dólares durante 2024. Este crecimiento ha impulsado la necesidad de crear marcos regulatorios que proporcionen supervisión integral. La Ley de IA de la UE fue propuesta en 2021, seguida de la "Carta de Derechos de la IA" en EE. UU., mientras que China implementó las "Provisiones de Síntesis Profunda" o Brasil trabaja en su ‘Proyecto de Ley nº 2.338/2023’ sobre Inteligencia Artificial, todavía sin nombre concreto.
Repaso a la legislación
La Ley de IA de la UE clasifica los sistemas de IA en cuatro categorías de riesgo: mínimo, limitado, alto e inaceptable. Los sistemas de alto riesgo, como los de recursos humanos, educación y banca, están sujetos a estrictos requisitos de transparencia, seguridad y ética. Mientras que la ley europea, que entrará en vigor plenamente en 2026, prohíbe los sistemas que manipulan comportamientos o utilizan puntuación social. Esto influirá significativamente en el marco regulatorio global.
El Reino Unido adopta un enfoque pro-innovación, confiando en reguladores existentes para gestionar los riesgos de la IA en sus respectivas áreas. Se establecieron principios para la transparencia, la ética y la responsabilidad, mientras que el gobierno fomenta la supervisión específica por sector, lo que permite a los reguladores formular estrategias flexibles y coherentes. Además, el Centro para la Ética de los Datos y la Innovación está desarrollando un Hub de Transparencia Algorítmica para fortalecer la gobernanza de la IA.
Brasil se ha posicionado como pionero en América Latina con una estrategia nacional de IA en 2021. La legislación vigente, el Proyecto de Ley nº 2.338/2023, establece derechos relacionados con la equidad y la transparencia en las decisiones de los sistemas de IA. Esta propuesta de ley clasifica los sistemas en categorías de alto, no alto o riesgo prohibido. La ley, que pronto se someterá a votación, servirá como un estándar para la región.
China ha desarrollado una estrategia que se centra en la regulación de problemas específicos como la manipulación de precios o la generación de contenido falso. Las disposiciones para algoritmos de recomendación prohíben el uso de sesgos en la gestión laboral, mientras que la regulación de contenido generado requiere un etiquetado claro para distinguir entre contenido auténtico y falso. Las nuevas reglas sobre "Síntesis Profunda" supervisan tanto la creación como la difusión de contenido generado por IA, estableciendo un precedente sobre cómo abordar estos desafíos a nivel mundial.
Las regulaciones varían según el enfoque regional. La UE apuesta por un marco integral basado en el riesgo, el Reino Unido adopta una supervisión sectorial flexible, Brasil lidera con una estrategia nacional innovadora y China regula problemas específicos relacionados con el contenido y la manipulación.
En EE. UU., la Orden Ejecutiva y la "Carta de Derechos de la IA" apuntan a la protección del consumidor, mientras las leyes estatales definirán las medidas específicas como en California.