Sora AI视频工具遭滥用:用户形象被恶意生成孕妇癖好内容

🎯 情报来源:Simon Willison's Weblog

OpenAI旗下视频生成工具Sora近期曝出重大伦理漏洞。科技记者Katie Notopoulos在开启Sora 2的”允许他人使用个人形象”功能后,发现陌生用户利用其形象生成了孕妇主题的变态内容。涉事账号专门生产孕妇隆腹的系列视频,暴露出AI生成内容(AIGC)在特殊癖好领域的滥用风险。

该事件揭示了当前AI内容审核的技术瓶颈。据当事人观察,由于人类性癖好的多样性,现有分类器难以有效拦截此类内容。目前Sora是少数提供严格opt-in机制的AI工具,但主动授权功能反而成为加害渠道。

💡 核心要点

  • 100%未经授权:记者形象被完全陌生人用于生成变态内容
  • 垂直癖好产业链:涉事账号专注生产单一类型(孕妇)AIGC视频
  • 技术防御失效:因性癖类型过于庞杂,现有分类器无法有效识别拦截

📌 情报分析

技术价值 [评级:低]
暴露当前AIGC内容审核在细分场景的失效,需要开发更细粒度的伦理过滤层

商业价值 [评级:一般]
短期可能影响企业形象,但opt-in机制本身仍具商业价值

趋势预测 [评级:高]
将加速”数字水印+生物特征绑定”等身份验证技术的发展

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索