Meta, la empresa matriz de Facebook e Instagram, ha actualizado su política de privacidad a partir del 26 de junio, permitiendo el uso de publicaciones, imágenes y datos personales para entrenar su inteligencia artificial (IA). Este cambio ha generado críticas significativas de defensores de la privacidad y ha llevado a quejas legales en Europa.

Bajo la nueva política, Meta utilizará datos de usuarios sin obtener un consentimiento explícito, justificando el movimiento bajo la cláusula de "interés legítimo" del Reglamento General de Protección de Datos (RGPD). Esto incluye publicaciones, comentarios e interacciones con empresas, pero excluye mensajes privados. Los usuarios pueden optar por no participar enviando una solicitud que explique cómo el uso de sus datos los afecta, la cual Meta revisará de acuerdo con las leyes de protección de datos.

El grupo defensor de la privacidad NOYB, fundado por Max Schrems, ha presentado quejas en 11 países europeos. Argumentan que el uso de la cláusula de "interés legítimo" por parte de Meta para procesar datos de usuarios sin consentimiento es problemático y potencialmente viola el RGPD. Esto surge en medio de preocupaciones sobre hasta qué punto se pueden utilizar los datos personales para entrenar IA sin comprometer la privacidad de los usuarios.

 

Impacto

La política actualizada ha llevado a algunos usuarios, especialmente artistas, a abandonar plataformas como Instagram para evitar que sus datos sean utilizados en el desarrollo de IA, temiendo que eventualmente compita con su trabajo. Esto ha planteado preguntas más amplias sobre la ética de utilizar contenido personal y creativo para entrenar modelos de IA.

Meta se ha enfrentado a multas considerables por violaciones del RGPD en el pasado, sumando más de 1.500 millones de euros. La dependencia de la empresa en el "interés legítimo" para el procesamiento de datos ha sido previamente cuestionada en contextos como la publicidad.