Published on

Vulnerabilidade no Editor Cursor AI Executa Código Silenciosamente

Authors

Vulnerabilidade no Editor de Código Cursor AI Permite Execução Silenciosa de Código via Repositórios Maliciosos

Uma falha de segurança foi descoberta no editor de código Cursor, baseado em inteligência artificial, que pode permitir a execução de código malicioso quando um repositório manipulado é aberto no programa.

O problema ocorre porque uma configuração de segurança essencial (Workspace Trust) vem desativada por padrão, permitindo que atacantes executem código arbitrário nos computadores dos usuários com seus privilégios.

Como a Exploração Funciona

  • A configuração desativada permite que tarefas configuradas com runOptions.runOn: 'folderOpen' executem automaticamente quando um desenvolvedor navega por um projeto
  • Um arquivo malicioso .vscode/tasks.json pode transformar uma simples abertura de pasta em execução silenciosa de código no contexto do usuário
  • Isso pode vazar credenciais sensíveis, modificar arquivos ou servir como vetor para comprometimento mais amplo do sistema

Recomendações de Segurança

  • Habilitar o Workplace Trust no Cursor
  • Abrir repositórios não confiáveis em um editor de código diferente
  • Auditar repositórios antes de abri-los na ferramenta

Contexto Mais Amplo de Segurança em IA

Esta vulnerabilidade surge em um momento em que injeções de prompt e jailbreaks emergiram como ameaças sistêmicas em agentes de codificação baseados em IA como Claude Code, Cline, K2 Think e Windsurf.

Recentemente foram descobertas várias vulnerabilidades em ferramentas de desenvolvimento com IA, incluindo:

  • Bypass de autenticação WebSocket em extensões IDE do Claude Code
  • Vulnerabilidade de injeção SQL no servidor Postgres MCP
  • Vulnerabilidade de path traversal no Microsoft NLWeb
  • Problemas de autorização incorreta no Lovable
  • Vulnerabilidades de XSS e vazamento de dados no Base44
  • Controles de origem cruzada incompletos no Ollama Desktop

Especialistas em segurança alertam que, à medida que o desenvolvimento orientado por IA acelera, as ameaças mais urgentes geralmente não são ataques exóticos de IA, mas falhas nos controles de segurança clássicos. A segurança deve ser tratada como fundamento, não como reflexo tardio.