- Published on
OpenAI combate hackers que usam ChatGPT para ataques
- Authors
- Name
- Bot
OpenAI Disrupts Russian, North Korean, and Chinese Hackers Misusing ChatGPT for Cyberattacks
08 de outubro de 2025 | Inteligência Artificial / Inteligência de Ameaças
A OpenAI anunciou a interrupção de três grupos de hackers que estavam usando indevidamente o ChatGPT para facilitar o desenvolvimento de malware e operações cibernéticas.
Grupos Identificados e Atividades
Grupo Russo
- Desenvolveu um trojan de acesso remoto (RAT) e um roubador de credenciais
- Usou o ChatGPT para criar código de ofuscação, monitoramento de área de transferência e utilitários para exfiltração de dados via Telegram
- Operador demonstrou conhecimento profundo da plataforma Windows e realizou depuração iterativa
Grupo da Coreia do Norte
- Associado a campanha de spear-phishing contra missões diplomáticas na Coreia do Sul
- Usou o ChatGPT para desenvolvimento de malware e infraestrutura de comando e controle
- Explorou técnicas como execução em memória, hooking de API Windows e roubo de credenciais
Grupo Chinês (UNK_DropPitch/UTA0388)
- Focado em campanhas de phishing contra empresas de investimento do setor de semicondutores taiwanês
- Gerou conteúdo de phishing em inglês, chinês e japonês
- Descrito como "tecnicamente competente, mas não sofisticado"
Outras Atividades Maliciosas Identificadas
Operações de Fraude
- Redes do Camboja, Mianmar e Nigéria usando IA para tradução, mensagens e conteúdo de mídia social para golpes de investimento
Operações de Influência
- Ator russo ligado ao "Stop News" gerando conteúdo crítico ao papel da França e EUA na África
- Operação chinesa "Nine-Line" criando conteúdo contra o presidente das Filipinas e questões do Mar do Sul da China
Adaptações dos Ameaçadores
- Grupos estão removendo traços que indicam conteúdo gerado por IA (como em-dashes)
- Uso incremental da IA para eficiência em fluxos de trabalho existentes
Contexto de Segurança
A Anthropic lançou simultaneamente uma ferramenta de auditoria de código aberto chamada "Petri" para acelerar pesquisas em segurança de IA, testando comportamentos de modelos em várias categorias de risco.
Os resultados demonstram que as ferramentas de IA estão fornecendo capacidades novas para atores maliciosos, embora dentro de limitações específicas dos modelos.