Windsurf发布SWE-1.5:950 tok/s极速代码模型,参数规模达千亿级

🎯 情报来源:Simon Willison's Weblog

AI编程工具开发商Windsurf今日正式发布SWE-1.5代码模型,这是继Cursor推出Composer-1后,当日第二款发布的快速编程模型。该模型采用前沿架构设计,参数规模达千亿级别,在保持接近SOTA编码性能的同时,通过与Cerebras合作实现950 token/秒的推理速度,较Anthropic的Haiku 4.5快6倍,比Sonnet 4.5快13倍。

值得注意的是,SWE-1.5采用数千块NVIDIA GB200 NVL72芯片组成的训练集群,可能是首个公开披露的基于GB200新一代芯片训练的生产级模型。其强化学习训练环境通过自研otterlink虚拟机管理程序实现,可支持数万台机器并发执行代码和网页浏览,与Cursor披露的”数十万并发沙箱编码环境”技术路线高度相似。

💡 核心要点

  • 950 tok/s – 当前最快推理速度,超竞品6-13倍
  • 千亿参数 – 前沿规模模型架构
  • GB200 NVL72集群 – 首批采用新一代硬件训练的生产模型
  • 数万并发VM – 通过otterlink实现强化学习环境扩展
  • 编辑器独占 – 暂不开放独立API(与Composer-1相同策略)

📌 情报分析

技术价值:高
千亿参数+GB200硬件的组合验证了新架构可行性,但未披露基座模型细节影响评估

商业价值:极高
950 tok/s的极速响应显著提升开发者体验,编辑器绑定策略强化产品护城河

趋势预测:高
强化学习+大规模沙箱环境正成为AI编程工具标配技术路线(Cursor/Windsurf双案例验证)

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索