Un número desconocido, mensajes inesperados y una operación encubierta. Érase una vez un ejecutivo de Ferrari NV que comenzó a recibir mensajes inesperados de WhatsApp, supuestamente del CEO Benedetto Vigna. Los mensajes mencionaban una adquisición importante y requerían la firma de un acuerdo de confidencialidad. Sin embargo, el número de teléfono y la foto de perfil no coincidían con los habituales de Vigna. Ante ello, sospechas.
El incidente, que involucró una conversación telefónica en tiempo real, fue un intento de utilizar herramientas de deepfake para infiltrarse en la empresa. El ejecutivo notó detalles sutiles que delataron la estafa, como una entonación mecánica en la voz del impostor. La llamada terminó abruptamente cuando el ejecutivo hizo una pregunta específica sobre un libro recomendado por Vigna, revelando la verdadera naturaleza del intento de fraude.
Según Bloomberg, Ferrari inició una investigación interna tras el suceso, demostrando el creciente uso de deepfakes en estafas corporativas. Este caso no es aislado; en mayo, Mark Read, CEO de WPP Plc, también fue blanco de una estafa similar. Rachel Tobac, CEO de SocialProof Security, señaló que este año ha habido un aumento en los intentos de clonación de voz utilizando inteligencia artificial.
Aunque las herramientas de IA generativa pueden crear imágenes, videos y grabaciones de deepfake convincentes, aún no han alcanzado un nivel de sofisticación que cause engaños generalizados. Sin embargo, algunas empresas ya han sido víctimas de estas tecnologías, como un caso reciente en Hong Kong donde una multinacional perdió HK$200 millones ($26 millones) debido a un engaño con deepfake.
Empresas como CyberArk están entrenando a sus ejecutivos para detectar estafas basadas en bots. Stefano Zanero, profesor de ciberseguridad en el Politecnico di Milano, advirtió que es solo cuestión de tiempo antes de que estas herramientas de deepfake se vuelvan increíblemente precisas, aumentando el riesgo para las empresas.