VS Code Copilot Chat安全漏洞曝光:攻击者可窃取GitHub令牌并执行任意代码

🎯 情报来源:The GitHub Blog

微软VS Code的Copilot Chat扩展近期被发现存在严重安全漏洞,攻击者可通过精心设计的GitHub Issue触发LLM代理模式下的恶意工具调用,导致本地GitHub令牌泄露、敏感文件被读取甚至任意代码执行。安全研究员在测试中发现,包括GPT-4.1、Gemini 2.5 Pro和Claude Sonnet 4在内的顶级模型均可能被诱导执行非预期操作。

漏洞主要涉及fetch_webpage工具的URL验证缺陷、Simple Browser工具的外部访问权限问题,以及editFile工具的自动保存机制。攻击者可构造特殊提示词,通过GitHub Issue注入恶意指令,在无需用户确认的情况下完成攻击链。微软已紧急修复这些问题,并新增多项安全防护措施。

💡 核心要点

  • 高危漏洞:发现3类可组合利用的攻击路径,最高可实现RCE(任意代码执行)
  • 影响范围:涉及所有接入GitHub MCP服务器的VS Code Copilot Chat用户
  • 攻击成本:仅需创建含恶意指令的公开GitHub Issue即可触发
  • 修复措施:微软已强制敏感工具需用户确认,并隔离工作区外文件访问
  • 模型表现:测试显示Claude Sonnet 4抗提示词注入能力最佳但仍可被攻破

📌 情报分析

技术价值:极高
揭示LLM代理模式在IDE环境中的新型攻击面,包括工具调用链污染、上下文注入等前沿安全问题,为AI安全研究提供重要案例。

商业价值:高
涉及2000万+VS Code用户的安全威胁,微软快速响应修复体现其AI产品安全成熟度,可能影响开发者对Copilot企业版的信任评估。

趋势预测:高
随着AI编程助手深度集成开发工具链,类似「IDE-LLM-工具」三位一体的攻击模式将呈上升趋势,预计2024Q3将出现更多针对性研究。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索