加州AI安全法案SB 53待签署:OpenAI等巨头需强制披露生物武器等极端风险测试报告

🎯 情报来源:AI News & Artificial Intelligence | TechCrunch

加州参议员Scott Wiener提出的AI安全法案SB 53已提交州长Gavin Newsom审批,预计未来数周内将决定是否签署。该法案要求年收入超过5亿美元的AI实验室(包括OpenAI、Anthropic、xAI和Google)必须公布其最先进AI模型的安全测试报告,重点防范可能导致人类死亡、网络攻击和化学武器制造的极端风险。

与去年被否决的SB 1047法案不同,SB 53获得Anthropic公开支持,Meta也表示其”朝着平衡监管与创新的方向迈出一步”。法案同时建立政府运营的CalCompute云计算集群,并为AI实验室员工设立安全举报保护通道。

💡 核心要点

  • 5亿美元门槛:仅适用于年收入超5亿美元的科技巨头,豁免初创企业
  • 3大极端风险:强制披露AI模型在生物武器制造、致命网络攻击和化学武器研发领域的测试数据
  • 政企态度逆转:去年遭硅谷强烈反对的SB 1047被否决后,新法案获Anthropic公开背书
  • 联邦博弈:OpenAI致信要求遵循联邦标准,参议员指特朗普政府已被科技行业”俘获”
  • 双重机制:除透明度要求外,同步建立举报人保护制度和州级AI算力基础设施

📌 情报分析

技术价值:高
聚焦AI极端风险的技术评估框架,推动安全测试标准化。但未涉及算法歧视等普适性风险。

商业价值:一般
仅约束头部企业,避免扼杀创新。但联邦与州监管分裂可能增加合规成本,OpenAI已明确反对。

趋势预测:极高
标志美国AI监管从自愿承诺转向强制披露。法案设计参考州长工作组的建议,通过概率达72%(前白宫AI顾问Dean Ball预估)。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索