Meta, a empresa-mãe do Facebook e do Instagram, atualizou sua política de privacidade a partir de 26 de junho, permitindo o uso de publicações, imagens e dados pessoais para treinar sua inteligência artificial (IA). Essa mudança gerou críticas significativas dos defensores da privacidade e levou a reclamações legais na Europa.
De acordo com a nova política, o Meta usará os dados do usuário sem obter consentimento explícito, justificando a mudança de acordo com a cláusula de "interesse legítimo" do Regulamento Geral de Proteção de Dados (GDPR). Isso inclui postagens, comentários e interações com empresas, mas exclui mensagens privadas. Os usuários podem optar por não participar enviando uma solicitação explicando como o uso de seus dados os afeta, que a Meta analisará de acordo com as leis de proteção de dados.
O grupo de defesa da privacidade NOYB, fundado por Max Schrems, apresentou reclamações em 11 países europeus. Eles argumentam que o uso da cláusula de "interesse legítimo" pela Meta para processar dados de usuários sem consentimento é problemático e potencialmente viola o GDPR. Isso ocorre em meio a preocupações sobre até que ponto os dados pessoais podem ser usados para treinar IA sem comprometer a privacidade dos usuários.
Impacto
A política atualizada levou alguns usuários, especialmente artistas, a sair de plataformas como o Instagram para evitar que seus dados sejam usados no desenvolvimento de IA, temendo que isso acabe competindo com seu trabalho. Isso levantou questões mais amplas sobre a ética do uso de conteúdo pessoal e criativo para treinar modelos de IA.
A Meta enfrentou multas substanciais por violações do GDPR no passado, totalizando mais de € 1,5 bilhão. A confiança da empresa no "interesse legítimo" para o processamento de dados foi questionada anteriormente em contextos como o da publicidade.