Human Rights Watch (HRW) denunció que fotos personales de niños brasileños son utilizadas sin su conocimiento para entrenar herramientas de inteligencia artificial (IA). Estas imágenes son extraídas de la web y empleadas en la creación de deepfakes maliciosos, exponiendo a los menores a riesgos de explotación y daño.
El análisis de HRW reveló que el conjunto de datos LAION-5B, usado para entrenar IA, incluye fotos identificables de niños de Brasil. Estas imágenes contienen detalles específicos como nombres y ubicaciones, lo que facilita su rastreo. En un caso, una foto muestra a una niña tocando los dedos de su hermana recién nacida en un hospital de Santa Catarina, revelando nombres y la ubicación exacta del hospital.
HRW encontró 170 fotos de niños de al menos 10 estados: Alagoas, Bahía, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Río de Janeiro, Río Grande do Sul, Santa Catarina y São Paulo. Estas fotos, que capturan momentos íntimos y eventos escolares, fueron publicadas en blogs y redes sociales hace años. Al ser utilizadas en IA, estas imágenes ponen en riesgo la privacidad de los niños, ya que los modelos de IA pueden reproducir datos privados.
Los deepfakes realistas creados con estas fotos han llevado al acoso de niñas en varios estados, generando imágenes sexualmente explícitas distribuidas en línea. LAION, responsable del conjunto de datos, se comprometió a retirar las fotos, pero culpó a los tutores de los niños por no eliminar las fotos de internet.
Hye Jung Han, defensora e investigadora sobre derechos de niños y tecnología de HRW, afirmó que los niños no deberían vivir con el temor de que sus fotos sean robadas y utilizadas para hacerles daño. HRW subraya la necesidad de que el gobierno adopte urgentemente políticas para proteger los datos de los infantes ante el uso indebido impulsado por la IA.
HRW enfatiza que la Ley General de Protección de Datos Personales de Brasil no ofrece suficientes garantías a los niños. Una política nacional debería impedir la incorporación de datos personales de infantes a sistemas de inteligencia artificial, dados los riesgos que entraña para la privacidad y el potencial de nuevas formas de uso indebido a medida que evoluciona la tecnología.
La creación de deepfakes ha sido facilitada por la facilidad de acceso a herramientas de IA que permiten generar imágenes realistas en cuestión de segundos. Al menos 85 niñas de varios estados han denunciado acoso por parte de compañeros de clase que usaron herramientas de IA para crear imágenes deepfake sexualmente explícitas de ellas, a partir de fotos de sus perfiles en redes sociales.
En respuesta, LAION confirmó que el conjunto de datos contenía las fotos personales de niños encontradas por HRW y se comprometió a retirarlas. Sin embargo, LAION también afirmó que los niños y sus tutores eran los responsables de eliminar dichas fotos personales de internet, lo que consideran la protección más eficaz contra el uso indebido.
La urgencia de estas medidas es destacada por HRW, que subraya la necesidad de proteger la privacidad y derechos de los niños ante el avance de la tecnología de IA. La implementación de políticas efectivas puede ayudar a evita vr daños mayores y salvaguardar la integridad de los menores en el entorno digital.