El avance de las herramientas de inteligencia artificial generativa ha traído consigo un nuevo problema en internet: la proliferación de imágenes sintéticas de desnudos que imitan a personas reales. Ante esta situación, Microsoft ha dado un importante paso para apoyar a las víctimas de este tipo de abusos, anunciando una nueva herramienta que permite eliminar imágenes explícitas de su motor de búsqueda Bing. Este anuncio se realizó el pasado jueves, en colaboración con la organización StopNCII.
Colaboración con StopNCII
Microsoft ha establecido una alianza con StopNCII (Stop Non-Consensual Intimate Images), una organización dedicada a ayudar a las víctimas de pornografía no consentida. StopNCII ofrece una herramienta que permite a las personas afectadas crear una “huella digital” de las imágenes explícitas, sean reales o sintéticas. Esta huella digital, conocida técnicamente como "hash", es utilizada por las plataformas asociadas para evitar que las imágenes sean compartidas o encontradas en sus servicios.
A partir de esta colaboración, Bing se une a otros gigantes tecnológicos como Facebook, Instagram, TikTok, Reddit, y Pornhub, que ya utilizan esta tecnología para combatir la distribución de pornografía no consentida.
Resultados y retos pendientes
En una publicación de blog, Microsoft compartió que, hasta agosto, ya había tomado medidas sobre más de 268,000 imágenes explícitas encontradas en los resultados de búsqueda de Bing, gracias a una fase piloto con la base de datos de StopNCII. Si bien anteriormente contaban con una herramienta de denuncia directa, la empresa reconoció que no era suficiente para abordar el problema de manera eficaz. Según Microsoft, "el reporte de los usuarios no escala lo suficiente para evitar que estas imágenes sean accesibles a través de la búsqueda."
El problema del deepfake porn no es exclusivo de Bing. Google, el motor de búsqueda más popular, también enfrenta críticas por no haber formado una asociación con StopNCII, a pesar de que ya ofrece herramientas para denunciar y eliminar este tipo de contenido. Además, países como Corea del Sur han reportado miles de enlaces a contenido sexual no deseado, agravando la situación.
Este fenómeno, alimentado por el uso de IA, afecta de manera descontrolada, y aunque las herramientas de StopNCII solo funcionan para adultos, los adolescentes también están siendo perjudicados. Actualmente, Estados Unidos carece de una ley nacional que regule este problema, lo que deja la responsabilidad en manos de las autoridades locales y estatales.