OpenAI ha revelado que, en las últimas semanas, sus ingenieros han identificado más de 20 ciberataques llevados a cabo utilizando herramientas de inteligencia artificial como ChatGPT y otros modelos de lenguaje extendido (LLM). Según los técnicos de la compañía, los responsables de estos ataques son hackers provenientes de China e Irán, quienes han aprovechado las capacidades de la IA para desarrollar y depurar malware, además de realizar otras actividades maliciosas. Esta situación expone una de las caras más preocupantes del uso de la IA: su potencial para facilitar el cibercrimen.
Primeros ataques: activistas chinos y 'SweetSpecter'
El primer ciberataque relacionado con ChatGPT fue orquestado por activistas chinos y tuvo como objetivo varios gobiernos de países asiáticos. Este ataque utilizó una técnica de spear-phishing conocida como 'SweetSpecter', que se basa en el envío de un archivo ZIP con un fichero malicioso. Al descargar y abrir dicho archivo, el sistema del usuario se infecta, permitiendo a los atacantes acceder a su equipo. Los ingenieros de OpenAI detectaron que este malware fue desarrollado utilizando múltiples cuentas de ChatGPT para escribir el código malicioso y descubrir vulnerabilidades en los sistemas afectados.
Ataques en Irán: 'CyberAv3ngers' y 'Storm-0817'
Otro ataque destacado fue llevado a cabo por un grupo iraní conocido como 'CyberAv3ngers', que utilizó ChatGPT para explotar vulnerabilidades en dispositivos macOS y robar contraseñas de los usuarios. Asimismo, otro grupo iraní, denominado 'Storm-0817', empleó la inteligencia artificial para desarrollar software malicioso destinado a dispositivos Android. Este malware era capaz de acceder a listas de contactos, registros de llamadas y al historial del navegador, lo que comprometía seriamente la privacidad de los usuarios.
OpenAI ha subrayado que, aunque estos ataques se llevaron a cabo utilizando ChatGPT, los métodos empleados no son nuevos ni innovadores. Los hackers chinos e iraníes aprovecharon técnicas conocidas para crear el malware, lo que indica que, aunque la IA fue útil para simplificar el proceso, no se han desarrollado variantes completamente nuevas de malware. Sin embargo, la facilidad con la que se pueden crear herramientas dañinas utilizando inteligencia artificial es un recordatorio inquietante del potencial que tiene la IA en manos malintencionadas.
Respuesta de OpenAI y desafíos futuros
Ante estos ataques, OpenAI ha asegurado que está trabajando para mejorar sus sistemas y prevenir que su tecnología sea utilizada con fines maliciosos. La empresa ha creado equipos especializados en seguridad que comparten sus hallazgos con otras compañías y la comunidad tecnológica para ayudar a frenar estos ciberataques. Aun así, OpenAI enfatiza que la responsabilidad no solo recae en ellos, sino que otras empresas que desarrollan modelos de inteligencia artificial generativa también deben tomar medidas para garantizar la seguridad y evitar que estas herramientas sean explotadas por ciberdelincuentes.