🎯 情报来源:Simon Willison's Weblog
OpenAI旗下视频生成工具Sora近期曝出重大伦理漏洞。科技记者Katie Notopoulos在开启Sora 2的”允许他人使用个人形象”功能后,发现陌生用户利用其形象生成了孕妇主题的变态内容。涉事账号专门生产孕妇隆腹的系列视频,暴露出AI生成内容(AIGC)在特殊癖好领域的滥用风险。
该事件揭示了当前AI内容审核的技术瓶颈。据当事人观察,由于人类性癖好的多样性,现有分类器难以有效拦截此类内容。目前Sora是少数提供严格opt-in机制的AI工具,但主动授权功能反而成为加害渠道。
💡 核心要点
- 100%未经授权:记者形象被完全陌生人用于生成变态内容
- 垂直癖好产业链:涉事账号专注生产单一类型(孕妇)AIGC视频
- 技术防御失效:因性癖类型过于庞杂,现有分类器无法有效识别拦截
📌 情报分析
技术价值 [评级:低]
暴露当前AIGC内容审核在细分场景的失效,需要开发更细粒度的伦理过滤层
商业价值 [评级:一般]
短期可能影响企业形象,但opt-in机制本身仍具商业价值
趋势预测 [评级:高]
将加速”数字水印+生物特征绑定”等身份验证技术的发展
