OpenAI强推GPT-5医疗应用引争议:诊断错误率下降但现溴中毒案例,Sam Altman坦承功能缺陷

🎯 情报来源:Artificial intelligence – MIT Technology Review

OpenAI最新发布的GPT-5模型在医疗应用领域引发重大争议。CEO Sam Altman在发布会上承认其”自动选择最优模型”功能存在缺陷,同时现场演示了癌症患者通过上传活检报告获取诊断建议的案例。肯尼亚医生使用AI辅助诊断错误率下降的研究被用作推广依据,但《内科学年鉴》同期披露了用户因ChatGPT建议导致溴中毒的极端案例。

技术测评显示,GPT-5虽改善了过度奉承用户的问题,但在专业领域仍存在明显错误。据早期测试者反馈,其宣称的”按需提供博士级专家建议”的能力与实际情况存在差距。模型整体表现被评价为”更像是产品迭代而非技术突破”,反映当前大语言模型可能已进入边际效益递减阶段。

💡 核心要点

  • 医疗应用激进转型:GPT-5开始明确建议用户咨询健康问题,癌症诊断案例被用作官方宣传
  • 肯尼亚研究数据:医生使用AI辅助时诊断错误率降低(具体降幅未披露)
  • 安全隐患实例:用户因遵循ChatGPT建议导致溴中毒住院,1970年代以来美国罕见病例
  • 功能缺陷披露:”自动模型选择”系统存在故障,Altman承认削弱了用户控制权
  • 性能改进:过度奉承用户的问题缓解率未量化,但测试反馈显著改善

📌 情报分析

技术价值:高
模型在医疗文本解析和多轮诊断对话展现进步,肯尼亚临床研究提供实证支持,但核心推理能力未达”博士级专家”承诺

商业价值:极高
医疗健康市场空间达万亿美元规模,OpenAI通过HealthBench评估体系构建行业标准,但法律风险同步飙升

趋势预测:一般
从”通用智能”转向垂直领域应用的技术路线已明确,但医疗等高风险领域的监管框架缺失可能制约商业化速度

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索