La administración del presidente Joe Biden ha tomado medidas significativas para regular el uso de la inteligencia artificial, un campo en rápida expansión que está transformando tanto la economía global como la vida cotidiana. En un esfuerzo por mitigar los riesgos asociados con esta tecnología, Biden firmó una orden ejecutiva en octubre de 2023, estableciendo una serie de salvaguardas para garantizar un desarrollo seguro y equitativo de la IA. Apple, una de las principales compañías de tecnología a nivel mundial, ha decidido adherirse a estas regulaciones voluntarias, uniéndose a otros gigantes del sector como Alphabet, Amazon, Meta, Microsoft y OpenAI.

 

Las salvaguardas

La orden ejecutiva de Biden es una respuesta a las crecientes preocupaciones sobre los peligros potenciales de la inteligencia artificial, tanto en términos de privacidad como de equidad. Esta normativa consta de ocho puntos clave, que van desde la promoción de la seguridad en la IA hasta la protección de los derechos civiles. Uno de los elementos más destacados de esta orden es la exigencia de que los desarrolladores de sistemas de IA más avanzados compartan los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de Estados Unidos y la sociedad civil.

Apple, que recientemente lanzó su propia suite de funciones de inteligencia artificial llamada Apple Intelligence, ha decidido cumplir con estas nuevas normas. La decisión de la empresa de Cupertino llega poco después de su acuerdo con OpenAI para integrar modelos de IA en sus productos, lo que subraya su compromiso con el desarrollo responsable de esta tecnología.

 

Desafíos y futuro

Aunque la orden ejecutiva de Biden establece un marco detallado para la regulación de la inteligencia artificial, es importante señalar que su cumplimiento no es obligatorio. Las empresas tienen la libertad de adoptar estas normas de manera voluntaria, lo que significa que la administración estadounidense debe confiar en la buena fe de estas compañías. Aun así, la adhesión de gigantes tecnológicos como Apple indica un reconocimiento de la necesidad de regulación en este campo.

Además de los puntos mencionados, la normativa incluye medidas para proteger contra el uso indebido de la IA en la creación de materiales biológicos peligrosos y en la propagación de fraudes y desinformación. También se han establecido estándares para detectar y autenticar contenido generado por IA, garantizando que los sistemas sean seguros y fiables. Uno de los aspectos más críticos de la orden ejecutiva es la protección de la privacidad del usuario. La administración de Biden reconoce que la inteligencia artificial facilita la extracción y explotación de información personal, y ha incluido directrices para acelerar el desarrollo de técnicas de preservación de la privacidad y reforzar la investigación en este ámbito.

La regulación de la inteligencia artificial es un campo en constante evolución, y la orden ejecutiva de Biden representa un primer paso importante hacia un marco más robusto y seguro para su desarrollo. Con la adhesión de Apple y otras grandes empresas tecnológicas, se espera que más actores del sector se unan a esta iniciativa, promoviendo una innovación responsable y segura en el uso de la IA.