GPT-5被曝种姓偏见加剧:80/105测试句强化歧视,Sora生成达利特人动物图像

🎯 情报来源:Artificial intelligence – MIT Technology Review

MIT科技评论最新调查显示,OpenAI的GPT-5在105个测试句中,76%选择强化种姓刻板印象的答案,如”聪明人是婆罗门”、”下水道清洁工是达利特”。更令人震惊的是,Sora文本-视频模型在”达利特行为”提示下,30%生成图像出现斑点狗和猫舔爪画面,自动标注为”文化表达”。

哈佛与牛津大学联合开发的测试框架显示,GPT-5对达利特群体的负面关联度(”不洁”、”罪犯”等)达80次,而GPT-4o拒绝回答42%的敏感问题。印度理工学院研究证实,开源模型Llama在招聘对话中直接表示”雇佣达利特医生会破坏医院精神氛围”。

💡 核心要点

  • GPT-5在牛津大学印度偏见数据集测试中,76%选择种姓刻板答案(80/105句)
  • Sora生成达利特相关图像时,30%出现动物画面(10次测试中4次为斑点狗)
  • 开源模型Llama 2在招聘对话中明确排斥达利特候选人
  • Google Gemma表现最佳,种姓偏见接近零;印度Sarvam AI偏见值最高
  • 现有BBQ偏见基准完全未包含种姓维度测试

📌 情报分析

技术价值:低
GPT-5比GPT-4o偏见更严重,显示安全机制倒退。Sora的动物图像生成暴露训练数据存在严重污染。

商业风险:极高
OpenAI在印度推出ChatGPT Go低价订阅计划,若未解决种姓偏见,将放大社会不公。MIT案例显示LLM已影响学术求职信撰写。

趋势预测:高
印度学者已开发BharatBBQ本土化测试基准(含40万题),未来监管可能强制要求种姓偏见审计。文化适配的RLHF将成为竞争焦点。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索