Um número desconhecido, mensagens inesperadas e uma operação secreta. Era uma vez, um executivo da Ferrari NV começou a receber mensagens inesperadas no WhatsApp, supostamente do CEO Benedetto Vigna. As mensagens mencionavam uma grande aquisição e exigiam a assinatura de um contrato de confidencialidade. No entanto, o número de telefone e a foto do perfil não correspondiam aos habituais de Vigna. As suspeitas foram levantadas.
O incidente, que envolveu uma conversa telefônica em tempo real, foi uma tentativa de usar ferramentas de deepfake para se infiltrar na empresa. O executivo percebeu detalhes sutis que denunciaram o golpe, como uma entonação mecânica na voz do impostor. A ligação terminou abruptamente quando o executivo fez uma pergunta específica sobre um livro recomendado por Vigna, revelando a verdadeira natureza da tentativa de fraude.
De acordo com Bloomberg, a Ferrari lançou uma investigação interna após o evento, demonstrando o uso crescente de deepfakes em golpes corporativos. Esse caso não é isolado; em maio, Mark Read, CEO da WPP Plc, também foi alvo de um golpe semelhante. Rachel Tobac, CEO da SocialProof Security, observou que este ano houve um aumento nas tentativas de clonagem de voz usando inteligência artificial.
Embora as ferramentas de IA generativas possam criar imagens, vídeos e gravações deepfake convincentes, elas ainda não atingiram um nível de sofisticação que cause um engano generalizado. No entanto, algumas empresas já foram vítimas dessas tecnologias, como um recente caso em Hong Kong em que uma multinacional perdeu HK$ 200 milhões (US$ 26 milhões) devido a um golpe de deepfake.
Empresas como a CyberArk estão treinando seus executivos para detectar fraudes baseadas em bots. Stefano Zanero, professor de segurança cibernética do Politecnico di Milano, alertou que é apenas uma questão de tempo até que essas ferramentas de deepfake se tornem incrivelmente precisas, aumentando o risco para as empresas.