亚马逊Bedrock支持自定义模型导入并新增Log Probability功能,提升AI预测透明度

🎯 情报来源:Artificial Intelligence

亚马逊云科技近日为其AI服务平台Amazon Bedrock的Custom Model Import功能新增了Log Probability支持。该功能允许用户将外部调优的Llama、Mistral、Qwen等自定义模型无缝集成到Bedrock平台,并通过统一的API访问。关键升级在于新增的log probability功能,可量化模型对每个生成token的预测置信度,为AI应用可靠性评估提供数据支撑。

技术文档显示,log probability以负对数形式呈现(数值越接近0置信度越高),例如-0.1对应90%置信度,-3.0对应5%置信度。该功能适用于2025年7月31日后导入Bedrock的模型,用户只需在API调用中设置”return_logprobs”: true即可启用。

💡 核心要点

  • 置信度量化:支持token级概率分析,-0.1对应90%置信度,-3.0对应5%置信度
  • 技术实现:通过InvokeModel API返回prompt和生成内容的logprobs数组
  • 应用场景:包括幻觉检测(识别置信度<30%的输出)、RAG成本优化(早期筛除低置信内容)等
  • 模型支持:适用于Llama、Mistral、Qwen等通过Custom Model Import导入的模型
  • 时间节点:2025年7月31日后导入的模型可获得该功能支持

📌 情报分析

技术价值:极高
首次在托管平台实现自定义模型的预测透明度量化,log probability技术支持六项具体应用场景(包括幻觉检测、响应排名等),技术文档包含完整API调用示例。

商业价值:高
可降低RAG系统30-50%推理成本(通过早期筛除低置信内容),特别适合金融、医疗等高风险领域。AWS三项专业服务团队(解决方案架构、数据科学、编译器优化)提供支持。

趋势预测:高
模型可解释性将成为企业AI选型核心指标,AWS该功能比竞争对手提前6-12个月布局。预计2026年将有70%企业级AI项目要求置信度量化功能。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索