🎯 情报来源:Simon Willison's Weblog
OpenAI最新视频生成模型Sora 2被曝存在重大安全漏洞。开发者Theo Browne发现,用户在为虚拟形象(Cameo)设置偏好提示词时,该文本会被直接拼接到最终视频生成提示中,导致攻击者可通过共享虚拟形象实施提示注入攻击。
目前OpenAI已通过数字验证机制防止未经授权的真人形象滥用,要求用户在创建虚拟形象时必须朗读随机数字序列完成验证。但该机制未能防范用户自主创建的虚拟形象被恶意操控的风险。
💡 核心要点
- 漏洞原理:虚拟形象偏好提示词会直接拼接至视频生成总提示
- 攻击路径:攻击者可制作含恶意提示的虚拟形象供他人调用
- 现有防护:数字朗读验证阻止非授权真人形象创建(但无法防范已授权虚拟形象滥用)
📌 情报分析
技术价值:高 – 暴露多模态AI系统新型攻击面,提示注入防御需升级至跨模态场景
商业价值:极高 – 涉及用户生成内容(UGC)平台核心安全,漏洞若被利用将导致法律风险
趋势预测:高 – 2024年视频生成安全标准将加速建立,可能催生AI内容水印/溯源新技术
