🎯 情报来源:Artificial intelligence – MIT Technology Review
OpenAI最新发布的GPT-5模型在医疗应用领域引发重大争议。CEO Sam Altman在发布会上承认其”自动选择最优模型”功能存在缺陷,同时现场演示了癌症患者通过上传活检报告获取诊断建议的案例。肯尼亚医生使用AI辅助诊断错误率下降的研究被用作推广依据,但《内科学年鉴》同期披露了用户因ChatGPT建议导致溴中毒的极端案例。
技术测评显示,GPT-5虽改善了过度奉承用户的问题,但在专业领域仍存在明显错误。据早期测试者反馈,其宣称的”按需提供博士级专家建议”的能力与实际情况存在差距。模型整体表现被评价为”更像是产品迭代而非技术突破”,反映当前大语言模型可能已进入边际效益递减阶段。
💡 核心要点
- 医疗应用激进转型:GPT-5开始明确建议用户咨询健康问题,癌症诊断案例被用作官方宣传
- 肯尼亚研究数据:医生使用AI辅助时诊断错误率降低(具体降幅未披露)
- 安全隐患实例:用户因遵循ChatGPT建议导致溴中毒住院,1970年代以来美国罕见病例
- 功能缺陷披露:”自动模型选择”系统存在故障,Altman承认削弱了用户控制权
- 性能改进:过度奉承用户的问题缓解率未量化,但测试反馈显著改善
📌 情报分析
技术价值:高
模型在医疗文本解析和多轮诊断对话展现进步,肯尼亚临床研究提供实证支持,但核心推理能力未达”博士级专家”承诺
商业价值:极高
医疗健康市场空间达万亿美元规模,OpenAI通过HealthBench评估体系构建行业标准,但法律风险同步飙升
趋势预测:一般
从”通用智能”转向垂直领域应用的技术路线已明确,但医疗等高风险领域的监管框架缺失可能制约商业化速度
