Un grupo de once empleados y ex trabajadores de las grandes compañías, como OpenAI, Google DeepMind y Anthropic, han alertado sobre los peligros de la falta de regulación con esta tecnología.

Según el documento firmado por los empleados, las empresas de IA poseen "sustancial información no pública" sobre las capacidades y limitaciones de sus sistemas, la "idoneidad" de sus medidas y "los niveles de riesgo de diferentes tipos de daños". Asimismo, la carta señala que actualmente las obligaciones de compartir esta información con los gobiernos son escasas.

"Las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobernanza corporativa sean suficientes para cambiar esto", enfatizan. También indican que los peligros pueden ir "desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana".

Los trabajadores también perciben que los contratos de confidencialidad y la falta de regularización como factores para que limitan posibles denuncias.

Los expertos están llamando a la creación de organismos de supervisión independientes para monitorear los desarrollos de IA y asegurar el cumplimiento de los estándares éticos. Están presionando para que se implementen programas de capacitación obligatoria en ética de IA y una mayor colaboración entre las empresas tecnológicas y las instituciones académicas para promover una cultura de responsabilidad ética.**

 

Esfuerzos legislativos

Algunos legisladores han aprobado leyes para regular las tecnologías de IA. En la Unión Europea, la Ley de IA exige que las empresas hagan sus modelos más transparentes y los responsabilicen por cualquier daño resultante. Esto incluye evaluaciones de riesgos obligatorias y documentación detallada de los sistemas de IA para asegurar que sean probados con conjuntos de datos representativos para minimizar el sesgo.

En Estados Unidos, los expertos en IA han solicitado al Congreso que actúe rápidamente y establezca límites para las tecnologías emergentes de IA. Advierten contra permitir que las empresas tecnológicas se autorregulen y señalan la necesidad de intervención gubernamental para prevenir un crecimiento no regulado, como el de las plataformas de redes sociales.

 

El camino a seguir

A medida que continúa el debate sobre la regulación de la IA, está claro que un enfoque colaborativo que involucre a tecnólogos, líderes de la industria, legisladores y éticos es esencial. Trabajando juntos, las partes interesadas pueden desarrollar un marco regulatorio que aborde los desafíos éticos y legales de la IA mientras promueve su uso responsable.

El resultado de estas discusiones y esfuerzos legislativos impactará significativamente en la confianza pública en los sistemas de IA y en el futuro de la innovación en IA. Asegurar la transparencia, la responsabilidad y las consideraciones éticas en el desarrollo de la IA no es solo una necesidad regulatoria, sino un problema fundamental de responsabilidad social y confianza en la tecnología.