OpenAI ha revelado en un informe reciente que ha logrado interrumpir cinco campañas de influencia encubiertas llevadas a cabo por actores estatales utilizando sus herramientas de inteligencia artificial. Estas campañas, atribuidas a actores vinculados a Rusia, China, Irán e Israel, fueron diseñadas para manipular la opinión pública y las elecciones en diversas regiones del mundo.

El informe, publicado el 30 de mayo de 2024, detalla cómo estas operaciones utilizaron la tecnología de OpenAI para generar textos, imágenes y comentarios falsos en redes sociales, además de realizar análisis de actividad en medios sociales y depuración de códigos. Entre las operaciones destacadas se encuentran una rusa, que generó comentarios en múltiples idiomas para minar el apoyo a Ucrania, y una china, que investigó la actividad en redes sociales y creó contenido textual en varios idiomas, según el New York Times​.

El periódico norteamericano también informa que un grupo iraní ha utilizado las herramientas de OpenAI para producir artículos y contenido antiestadounidense y antiisraelí. En cuanto a Israel, una empresa de gestión de campañas políticas ha sido descubierta utilizando modelos de OpenAI para crear contenido relacionado con el conflicto en Gaza y las relaciones entre judíos y musulmanes​.

La intervención de OpenAI subraya la creciente preocupación sobre el uso malintencionado de la IA en un año marcado por numerosas elecciones globales y tensiones geopolíticas. Aunque la compañía afirma que las campañas han tenido poco éxito en su contenido, se cree que su influencia aumentará conforme avance esta tecnología. OpenAI, junto con otras tecnológicas como Meta, ha intensificado los esfuerzos para detectar y desmantelar redes de desinformación, colaborando estrechamente con otras entidades y compartiendo inteligencia para prevenir futuras campañas de desinformación​.

Ben Nimmo, investigador principal del equipo de Inteligencia e Investigaciones de OpenAI, destacó que la IA se utilizó para aumentar el volumen de contenido con menos errores y para mezclar material generado por IA con contenido tradicional. A pesar de estos esfuerzos, OpenAI asegura que ninguna de las campañas logró un alcance significativo, con ninguna superando un 2 de 6 en la "Escala de Ruptura", que mide la influencia potencial de actividades maliciosas en las audiencias.