Inception Labs扩散模型Mercury登陆AWS:10倍提速+128K上下文支持

🎯 情报来源:Artificial Intelligence

Inception Labs的Mercury系列扩散式基础模型正式登陆Amazon Bedrock Marketplace和SageMaker JumpStart。作为首个商业化扩散式语言模型,Mercury在NVIDIA H100 GPU上实现每秒1,100 token的生成速度,较同类模型快10倍,同时支持最高128,000 token的扩展上下文窗口。

该系列包含通用型Mercury和专用编程模型Mercury Coder,后者在Python/Java等7种语言中展现卓越的代码生成能力。通过AWS托管服务,用户可快速部署至ml.p5.48xlarge等GPU实例,并利用Bedrock Converse API实现函数调用等高级功能。

💡 核心要点

  • ⚡ 生成速度达1,100 tokens/秒(H100 GPU),比传统自回归模型快10倍
  • 👨💻 支持7种编程语言,填充中间任务准确率提升40%
  • 🧠 原生支持32K上下文,通过扩展技术可达128K
  • 🛒 通过Bedrock Marketplace提供,含100+竞品模型对比
  • 🔒 部署在用户VPC内,符合企业级安全要求

📌 情报分析

技术价值:极高
扩散式架构实现并行token生成,实测代码生成速度528 tokens/秒(含完整游戏开发生成),突破现有序列生成瓶颈

商业价值:高
Bedrock统一API降低集成成本,但GPU实例(如ml.p5.48xlarge)可能推高TCO;适合对延迟敏感的代码补全/AI代理场景

趋势预测:高
扩散模型在非图像领域首现商业应用,AWS生态加持下或加速替代部分自回归模型,特别在需要长上下文保留的编程/数学场景

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索