El Consejo de Supervisión de Meta, conocido como la "suprema corte de las redes sociales", criticó las reglas poco claras de la empresa sobre representaciones sexualmente explícitas generadas por inteligencia artificial. Este órgano de supervisión pidió modificaciones para evitar la difusión de tales imágenes en las plataformas de Meta.

El consejo, financiado por Meta pero operando de manera independiente, revisó publicaciones de mujeres famosas creadas con inteligencia artificial y publicadas en Facebook e Instagram. Meta se comprometió a revisar las recomendaciones del comité y proporcionar una actualización sobre posibles cambios.

En un evento reciente, Mark Zuckerberg anunció que la tecnología sería implementada en Brasil en julio, pero solo llegó a otros países. El secretario Nacional del Consumidor de Brasil, Wadih Damous, expresó descontento por la exclusión del país en el lanzamiento del nuevo modelo de inteligencia artificial de Meta, subrayando la importancia de un diálogo continuo con la compañía.

El 2 de julio, Meta fue intimada a explicar el uso de datos personales de brasileños para entrenar su inteligencia artificial. Esta investigación surgió tras cambios en la política de privacidad de Facebook e Instagram en mayo, lo que generó preocupaciones sobre la protección de datos en el país. En otro caso, el Consejo de Supervisión criticó a Meta por una moderación excesivamente restrictiva en relación con el conflicto entre Israel y Hamás. Tras los ataques del 7 de octubre, Meta redujo temporalmente los umbrales para eliminar contenido violento y discursos de odio, lo que podría haber llevado a la eliminación errónea de contenido informativo.

El comité argumentó que esta política podría haber llevado a la eliminación errónea de contenido relevante sobre el conflicto. En dos casos específicos, Meta revocó inicialmente la eliminación de contenido, pero luego restauró las publicaciones con una advertencia.

El consejo, compuesto por miembros internacionales, sugiere que Meta debe adaptar sus políticas más rápidamente para proteger la libertad de expresión y el acceso a la información. Este organismo fue creado en 2020 por sugerencia de Mark Zuckerberg, y busca asegurar una moderación de contenido justa y transparente en las plataformas de la compañía.