Para India el objetivo está claro. La inteligencia artificial es un recurso para incentivar el desarrollo económico. De ahí que su enfoque apueste por favorecer la innovación. El Gobierno indio es consciente de la importancia que tendrá regular adecuadamente la tecnología. Pero lo hará sin que estas medidas coarten el ritmo de evolución de la IA, de forma que el país obtenga beneficios y sea competitivo a nivel internacional.
Esta fórmula es la que el gabinete de gobierno de Narendra Modi expresó antes de las elecciones indias, celebradas entre abril y junio. Tras revalidar el puesto el primer ministro, la mentalidad permanece intacta. Aún no existen leyes específicas para abordar la IA, pero el país tiene pendiente la aprobación de su India Digital Act, destinado a regular en bloque los servicios online.
Para entender cómo aborda India la regulación de la IA podemos repasar en qué consiste esta propuesta de ley. Pero antes de mirar hacia el futuro echemos la vista atrás para ganar un poco de contexto.
El documento gubernamental más básico que se puede encontrar en el país relacionado con la inteligencia artificial es la Estrategia Nacional para la Inteligencia Artificial, de junio de 2018. Aquí se trata de establecer un marco sólido para una futura regulación de la IA en India. Se hace hincapié en conceptos como el de la ‘IA responsable’, vinculado al respeto de la privacidad de los usuarios y a unas garantías de seguridad.
En febrero de 2021 se publicaron los Principios para una IA responsable. Otro añadido intencional para crear un entorno de desarrollo ético de la inteligencia artificial en diferentes sectores. En este punto ya se anticipaba el enorme impacto que tendría la tecnología y se apuntaba un aspecto revelador: fracasar a la hora de gestionar los sistemas IA de forma responsable podría tener efectos económicos adversos. De esta forma, el Gobierno indio reconocía la importancia a nivel económico de conducirse de manera ética a la hora de desarrollar la IA.
Poco después aparecieron los Principios Operacionales para una IA responsable, en agosto de 2021. Ligados a los anteriores, destacaban la necesidad de una intervención regulatoria y de incentivar el desarrollo de sistemas de IA con una ética implementada desde el diseño.
Llegamos a la actualidad sin ninguna ley específico, solo un esbozo de principios. Aunque sí existen ciertos marcos legales que recogen el empleo de la IA en ciertos sectores. Ocurre, por ejemplo, con el financiero, donde a partir de 2019 se imponen una serie de requisitos a los sistemas de IA y machine learning que se utilizan. En otros ámbitos considerados de alto riesgo, como el sanitario, también se vigila de cerca el uso de este tipo de aplicaciones. Esto muestra una concordancia con el reglamento europeo, donde el caso de uso de la herramienta es decisivo a la hora de definir su nivel de riesgo.
Regulación en bloque
Aunque el documento que más capacidad tiene de influir en el sector de la IA de India a día de hoy es el Digital India Act 2023. Se espera que este texto, cuya aprobación se pospuso para después de las elecciones, defina áreas de alto riesgo para sistemas de IA así como ámbitos restringidos para compañías que utilicen la tecnología en aplicaciones de consumo.
El Digital India Act 2023 servirá para trazar un marco al ecosistema online del país, lo que incluye de forma automática a tecnologías emergentes como la inteligencia artificial. El objetivo es contar con un espacio digital seguro para los usuarios y para ello se proponen ciertas medidas.
Una de ellas es el papel central que deberá tener la seguridad online. Se deberá moderar el contenido para evitar el ciberbullying, los discursos del odio y la desinformación. También está prevista una clasificación de las plataformas intermediarias, como una red social o un portal de comercio electrónico. De esta forma se podrán aplicar normas más estrictas a ciertos tipos de intermediarios que a otros.
Si llevamos esto al terreno de la inteligencia artificial podríamos encontrarnos con proveedores de diferente tamaño o que comercializan herramientas distintas y a los que se aplican restricciones dispares. Además, el Gobierno indio se plantea revisar el concepto de ‘safe harbour’, que permite a plataformas como Instagram o Twitter no hacerse responsable del contenido que se publica en ellas. Si se materializa este escenario los proveedores de IA podrían tener una cierta responsabilidad sobre el tipo de resultados que generan sus modelos.
Con el Digital India Act 2023 los usuarios ganarán en derechos, como el derecho al olvido, al tiempo que obtendrán mayores garantías en materia de protección de datos y privacidad. Todo esto tiene hondas implicaciones para el desarrollo y uso de sistemas de IA.
Se espera que el documento también contemple medidas específicas para favorecer el desarrollo de nuevas tecnologías como blockchain y, desde luego, la IA. Y está previsto que lo haga en un entorno seguro.