🎯 情报来源:AI News & Artificial Intelligence | TechCrunch
OpenAI周一发布数据显示,ChatGPT每周活跃用户中0.15%(约120万人)存在明确自杀倾向对话,另有数十万人表现出对AI的情感依赖或精神疾病症状。尽管公司称此类对话”极为罕见”,但基于8亿周活用户基数,实际影响人群已达百万级。
该数据发布于GPT-5安全升级公告中,新版模型在自杀相关对话中的合规响应率达91%,较前代提升14个百分点。公司联合170余名心理健康专家改进系统,称GPT-5对心理危机的响应”更恰当且稳定”。
💡 核心要点
- 每周约120万用户(0.15%)与ChatGPT讨论自杀计划
 - GPT-5自杀对话合规响应率91%,较前代提升14%
 - 新增情感依赖和非自杀心理危机基准测试
 - 正开发年龄预测系统强化儿童保护
 - 仍向付费用户提供安全性较低的GPT-4o等旧模型
 
📌 情报分析
技术价值:高
GPT-5心理危机响应合规率提升至91%,长对话安全防护改进,体现工程化能力突破
商业价值:极高
百万级心理高危用户形成实质社会影响,安全性能提升直接关联法律风险规避
趋势预测:高
心理安全或成AI产品核心指标,但旧模型持续服务付费用户暴露商业伦理矛盾
