A OpenAI revelou que, nas últimas semanas, seus engenheiros identificaram mais de 20 ataques cibernéticos realizados com ferramentas de inteligência artificial como ChatGPT e outros modelos de linguagem estendida (LLM). De acordo com os técnicos da empresa, os responsáveis por esses ataques são hackers da China e do Irã, que aproveitaram os recursos de IA para desenvolver e depurar malware, além de realizar outras atividades maliciosas. Essa situação expõe um dos lados mais preocupantes do uso da IA: seu potencial para facilitar o crime cibernético.
Primeiros ataques: Ativistas chineses e 'SweetSpecter'
O primeiro ataque cibernético relacionado ao ChatGPT foi orquestrado por ativistas chineses e teve como alvo vários governos de países asiáticos. Esse ataque usou uma técnica de spear-phishing conhecida como 'SweetSpecter', que se baseia no envio de um arquivo ZIP contendo um arquivo malicioso. Ao baixar e abrir o arquivo, o sistema do usuário é infectado, permitindo que os invasores obtenham acesso ao computador. Os engenheiros da OpenAI detectaram que esse malware foi desenvolvido usando várias contas do ChatGPT para escrever o código malicioso e descobrir vulnerabilidades nos sistemas afetados.
Ataques no Irã: 'CyberAv3ngers' e 'Storm-0817'
Outro ataque de destaque foi realizado por um grupo iraniano conhecido como 'CyberAv3ngers', que usou o ChatGPT para explorar vulnerabilidades em dispositivos macOS e roubar senhas de usuários. Da mesma forma, outro grupo iraniano, apelidado de 'Storm-0817', usou inteligência artificial para desenvolver software malicioso destinado a dispositivos Android. Esse malware era capaz de acessar listas de contatos, registros de chamadas e histórico do navegador, o que comprometia seriamente a privacidade dos usuários. A OpenAI enfatizou que, embora esses ataques tenham sido realizados usando o ChatGPT, os métodos empregados não são novos nem inovadores.
Os hackers chineses e iranianos utilizaram técnicas conhecidas para criar o malware, indicando que, embora a IA tenha sido útil para simplificar o processo, não foram desenvolvidas variantes completamente novas de malware. No entanto, a facilidade com que ferramentas nocivas podem ser criadas usando inteligência artificial é um lembrete perturbador do potencial da IA em mãos mal-intencionadas. Resposta da OpenAI e desafios futuros Diante desses ataques, a OpenAI garantiu que está trabalhando para melhorar seus sistemas e evitar que sua tecnologia seja usada para fins maliciosos.
A empresa criou equipes de segurança especializadas que compartilham suas descobertas com outras empresas e com a comunidade de tecnologia para ajudar a interromper esses ataques cibernéticos. Mesmo assim, a OpenAI enfatiza que a responsabilidade não recai apenas sobre ela, mas que outras empresas que desenvolvem modelos de inteligência artificial generativa também devem tomar medidas para garantir a segurança e evitar que essas ferramentas sejam exploradas por criminosos cibernéticos.