La Casa Blanca ha logrado compromisos voluntarios de varias empresas importantes del sector de la inteligencia artificial para tomar medidas contra la creación de deepfakes sexuales no consentidos y el material de abuso sexual infantil. Esta iniciativa es parte de un esfuerzo más amplio por parte del gobierno estadounidense para enfrentar los riesgos que plantea la IA en la generación de contenido perjudicial.
Empresas como Adobe, Cohere, Microsoft, Anthropic, OpenAI y el proveedor de datos Common Crawl han acordado actuar de manera responsable en la creación y uso de conjuntos de datos que eviten el abuso sexual basado en imágenes. Aunque Common Crawl no participa en todos los compromisos, el resto de las empresas han prometido implementar estrategias para proteger los procesos de desarrollo de sus modelos de IA, asegurando que no generen imágenes de abuso sexual. Además, estas compañías se comprometieron a eliminar imágenes de desnudos de los conjuntos de datos de entrenamiento de IA, siempre que sea apropiado y dependiendo del propósito del modelo.
Un compromiso autogestionado
Es importante señalar que estos compromisos son autogestionados, lo que significa que las mismas empresas serán responsables de cumplir con lo que han prometido. Además, no todas las compañías de IA se han sumado a esta iniciativa. Empresas como Midjourney y Stability AI, que también desarrollan tecnologías de inteligencia artificial, optaron por no participar en estos compromisos voluntarios.
El compromiso de OpenAI ha sido cuestionado debido a declaraciones anteriores de su CEO, Sam Altman, quien en mayo de 2023 indicó que la empresa exploraría cómo generar pornografía mediante IA de manera "responsable". Esto ha generado dudas sobre el alcance real de las medidas que la compañía tomará en este ámbito.
Un paso adelante en la lucha contra los deepfakes
A pesar de estas preocupaciones, la Casa Blanca ha calificado estos compromisos como un avance importante en la lucha contra los deepfakes sexuales no consentidos y otros abusos derivados de la IA. La administración está enfocada en identificar y reducir los daños potenciales de estas tecnologías, especialmente cuando se trata de proteger a las personas del uso indebido de su imagen sin su consentimiento.
Este esfuerzo representa un primer paso en la regulación de los contenidos generados por IA, un desafío creciente a medida que las herramientas de inteligencia artificial se vuelven más poderosas y accesibles.