AGI 的后一天:巅峰对谈全记录

记录时间:2026年1月 • 来源:公开对谈转录

🟠 Dario Amodei (Anthropic CEO)
🔵 Demis Hassabis (DeepMind CEO)

AGI 倒计时:我们要多快到达终点?

核心分歧:Dario 认为“代码闭环”将带来极速爆发(2026/27);Demis 认为“科学验证”需要时间(2030)。
Dario Amodei
坚持 2026/2027 达到诺奖水平: 去年在巴黎预测模型将在多领域达到诺贝尔奖得主水平,今年依然坚持该预测,甚至认为可能更快。
核心机制 - 代码闭环: 模型编写代码 -> 改进 AI 研究 -> 生成下一代模型。 Anthropic 内部工程师现在几乎不写代码,只负责编辑。
“如果你问我,我会猜测这会比人们想象的要快得多。关键驱动力是代码编写和研究能力的指数级加速。”
Demis Hassabis
坚持 50% 概率在本世纪末: 虽然进展惊人,但时间线相对谨慎。
科学验证的瓶颈: 编程和数学容易验证(有标准答案)。但自然科学(新材料、物理预测)需要实验验证,这无法纯粹在数字世界加速。
缺失的能力: 目前的 AI 擅长解答,但不擅长“提出问题”或具备真正的科学创造力。

关键分歧点

Dario 押注于数字世界的自我递归改进(Loop Closing)能突破一切;Demis 认为物理世界的反馈循环(需要实验、机器人、硬件)会拖慢进度。

商业战争:独立实验室 vs 科技巨头

DeepMind 宣布“红色代码”重回巅峰;Anthropic 展示了惊人的指数级收入增长。
Dario Amodei
指数级收入增长(重要数据):
2023年: $1亿
2024年: $10亿 (增长10倍)
2025年预测: $100亿 (再增长10倍)
独立生存逻辑: 智能水平与收入成正比。只要能持续产出最聪明的模型,独立公司就能像大型科技公司一样获得巨额收入以支撑算力。
Demis Hassabis
Google 的反击: 承认去年被 DeepSeek 和 OpenAI 抢了风头,但 Google 内部已进入“战时状态”,Gemini 3 和产品整合速度极快。
资源整合: DeepMind 现在是 Google 的“引擎室”。结合了初创公司的敏捷与 Google 的庞大资源(算力、分发渠道)。
🤝

共识:研究者主导

两人都认为,只有由研究人员领导、以解决硬核科学问题为“北极星”的公司才能在最后胜出。纯商业驱动的公司无法触达 AGI。

就业市场:从“过度招聘”到“意义危机”

初级职位正在消失。真正的挑战不是经济(后稀缺),而是人类存在的意义。
Dario Amodei
1-5 年内剧变: 坚持认为一半的白领工作将在 1-5 年内消失。
内部信号: Anthropic 内部已经开始减少对初级和中级工程师的需求,因为 AI 能做得更好。
适应力失效: 虽然人类历史上总能适应技术变革(如农民转工人),但这次指数级变化太快,可能彻底压倒劳动力市场的适应速度。
Demis Hassabis
短期建议 - 职业蛙跳: 现在的学生应该极度熟练掌握 AI 工具。利用这些工具直接跳过“实习生/初级”阶段,成为高级贡献者。
长期哲学: 如果 AGI 带来后稀缺社会,经济分配或许能解决,但更难的是解决“生而为人的意义”。如果没有工作,我们做什么?艺术、极限运动、探索星空?

风险图谱:技术青春期与坏演员

Dario 撰写新文章《机器之爱与恩典》的续篇,聚焦如何避免技术毁灭人类。
Dario Amodei
《超时空接触》的比喻: 引用电影台词:“你们是如何度过‘技术青春期’而没有自我毁灭的?”这是人类当前面临的终极考验。
具体威胁: 不担心抽象的末日,担心具体的:生物恐怖主义(制造病毒)、威权国家(如 CCP)的滥用、模型本身的欺骗性。
技术解法: “机械可解释性”(Mechanistic Interpretability)。必须像神经科学一样打开 AI 的黑盒,看清它是否在撒谎。
Demis Hassabis
双刃剑属性: AI 是终极科学工具,也是终极武器。如果恶性竞争导致忽视安全标准,后果不堪设想。
宁愿慢一点: 如果在他的时间表(本世纪末)和 Dario 的时间表(明年)中选择,他宁愿选择慢的,让社会有时间适应和建立规则。

地缘政治:芯片禁令是唯一解?

Dario 猛烈抨击美国现行的芯片出口政策;Demis 呼吁国际合作。
Dario Amodei
芯片是最关键的杠杆: 如果我们不能通过条约让对手慢下来,就必须通过切断芯片供应让他们慢下来。
强烈的比喻(抨击美政府): 美国政府为了维持供应链影响力而允许向对手出售部分芯片,这很愚蠢。
“这就像为了让波音公司盈利,而同意把核武器卖给朝鲜一样荒谬。”
Demis Hassabis
呼吁 CERN 模式: 建立类似欧洲核子研究中心(CERN)或国际原子能机构(IAEA)的国际组织。
最低安全标准: 即使在竞争中,也必须设立全球通用的最低 AI 部署安全标准,防止意外发生。

终极问题:费米悖论与明年预测

我们为什么没看到外星人?明年 AI 圈会发生什么?

👽 观众提问:费米悖论

问题: 我们没看到外星人,是不是因为每个文明都在发明 AGI 后自我毁灭了?

Demis 的回答: 不认同。如果是 AI 毁灭了文明,我们应该能观测到 AI 的产物(如戴森球、回形针工厂)。宇宙的寂静说明 AI 还没在那里发生。
Dario 的回答: 同意。他认为“大过滤器”在于多细胞生命的进化。我们已经过了最难的一关,未来掌握在我们自己手中,并非注定毁灭。
Dario 的明年预测
关注“AI 制造 AI”: 明年最大的看点是 AI 系统构建下一代 AI 系统的能力。如果这个循环跑通了,时间表将极大缩短;如果失败,时间表将推后。
Demis 的明年预测
新技术突破: 关注“世界模型”(World Models)、“持续学习”(Continual Learning)以及机器人技术的突破时刻。

原文

源链接