🎯 情报来源:量子位
DeepSeek R1发布128天后,其独特的降本策略正重塑大模型市场格局。最新数据显示,第三方平台托管的DeepSeek模型使用量较发布初期暴涨20倍,但其官方API市场份额却持续下滑至16%,首token延迟高达25秒,显著高于Azure等竞品。
据SemiAnalysis报告披露,DeepSeek通过限制64K上下文窗口(仅为竞品40%)、批量处理用户请求等极端优化手段,将推理成本压至行业最低水平。这种策略使其o3模型价格仅为OpenAI同类的20%,但算力资源优先供给内部AGI研发。
💡 核心要点
- 自营份额仅16%:5月DeepSeek官方平台token生成量占比暴跌至1/6
- 第三方用量20倍增长:托管模型成为云计算厂商新增长点
- 极致降本代价:64K上下文窗口(竞品普遍128K+),首token延迟超25秒
- 价格战成效:推理成本达OpenAI o1模型的20%
- 算力分配:70%+资源投入内部AGI研发(据流量逆向测算)
📌 情报分析
技术价值:高
开源模型+极致压缩技术形成技术壁垒(延迟降低25秒需5倍计算优化)
商业价值:一般
牺牲C端体验换取B端生态(20倍第三方增长),但货币化能力存疑
趋势预测:极高
AGI优先战略或引发行业效仿(Claude已降速40%),token智能密度成新竞争维度
