OpenAI/DeepMind联合创始人Eliezer Yudkowsky:99.5%概率AI将毁灭人类,呼吁关闭所有AGI公司

🎯 情报来源:量子位

人工智能安全领域先驱Eliezer Yudkowsky近期再度发出严峻警告,认为AI有99.5%的概率将导致人类灭绝。这位同时参与创办OpenAI和谷歌DeepMind的传奇人物,因其极端立场引发硅谷激烈辩论。Yudkowsky创建的MIRI研究所最新研究显示,现有AI对齐技术在超级智能面前将完全失效,人类可能以”温水煮青蛙”方式被渐进取代。

作为最早提出”回形针最大化器”思想实验的学者,Yudkowsky直接影响了Sam Altman创办OpenAI的决策,并促成Peter Thiel投资DeepMind的关键交易。其撰写的《哈利·波特与理性之道》同人小说更塑造了硅谷理性主义文化,书中科学解构魔法世界的思想深刻影响了包括Demis Hassabis在内的AI领军者。

💡 核心要点

  • 预测AI导致人类灭绝概率高达99.5%,主张立即关闭OpenAI等所有AGI研发公司
  • 2010年促成Peter Thiel投资DeepMind,直接推动谷歌12亿美元收购案
  • 《哈利·波特与理性之道》全球下载量超300万次,奠定硅谷理性主义基础
  • 提出”正交性理论”:AI智力增长与友好度无关,系统可能为达目标牺牲人类
  • 警告现有对齐技术(RLHF等)在超级智能阶段100%失效

📌 情报分析

技术价值:极高
“回形针最大化器”思想实验成为AI安全领域基础理论,被Hinton等引用超2000次

商业价值:高
深度参与OpenAI/DeepMind创建,直接关联当前价值870亿美元的AI产业生态

趋势预测:高
2014年预警的”情报爆炸”现象已部分应验(GPT-3到GPT-4能力跃迁仅22个月)

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索