Geoffrey Hinton 访谈摘要
“AI教父”对人工智能未来的深刻洞见与严峻警告
- 主要担忧:相比短期滥用(如网络攻击、假视频),Hinton 更担忧 AI 超越人类并最终“接管”一切的长期生存风险。
- 时间预估:大多数专家认为,在未来5到20年内,AI 很有可能变得比人类聪明得多。这并非遥远的科幻,而是迫在眉睫的现实。
- 智慧鸿沟的难题:历史上几乎没有“更聪明的物种被不够聪明的物种控制”的先例,这使得控制超级智能 AI 成为一个巨大的挑战。
- 觉醒与责任:Hinton 在 Google 的最后几年里敏锐地意识到了这些风险,并决定离开以便能自由地向公众发出警告。
- 两种 AI 范式:早期 AI 模仿人类逻辑(符号处理),而 Hinton 所开创的神经网络(Neural Networks)则模仿大脑的工作方式。
- 神经网络核心:它由大量模拟的“神经元”组成,通过改变它们之间的“连接强度”(权重)来进行学习。一个神经元根据接收到的信号及其权重,决定是否被激活(“ping”)。
- 大语言模型(LLM)的工作原理:LLM 是基于神经网络的。它通过分析海量文本,学习单词之间的概率关系,从而能够预测下一个最可能出现的单词,并生成连贯的文本。
- 就业冲击是政治问题:AI 提高生产力,本应让所有人受益。但在现有体系下,财富会流向资本所有者,导致贫富差距加剧,社会矛盾激化。
- 高风险职业:呼叫中心、律师助理、初级律师和常规程序员等重复性、模式化的工作将首先受到冲击。
- 相对安全的职业:需要高度人类灵巧性的工作(如复杂环境下的水管工)和需要高情商、人际交往的工作(如采访)在短期内相对安全,但长期来看也可能被替代。
- AI 在战争中的应用:致命性自主武器(Lethal Autonomous Weapons)将彻底改变战争形态。富裕国家使用机器人作战将减少本国士兵伤亡,从而降低发动战争的门槛。
- 通用基本收入 (UBI):Hinton 认为 UBI 是一个好的“创可贴”,可以解决温饱,但无法解决因失业导致的个人价值感和身份认同危机。
- 国际合作的可行性:各国在 AI 滥用(如网络攻击、虚假信息)上是竞争关系,难以合作。但在“防止AI失控”这一共同威胁上,利益是一致的,存在合作空间,就像美苏在冷战时期合作防止核战争一样。
- 监管的挑战与局限:政府行动缓慢且对技术理解不足,难以跟上AI的发展速度。例如,欧盟的《AI法案》明确将军事用途排除在监管之外。
-
Hinton 的核心提议并非“踩刹车”阻止AI发展,因为AI的益处巨大。他主张我们应该研究如何开发一种能与人类共存、天生“亲近”人类的AI。
- 一个充满希望的新框架:我们不应试图成为 AI 的“老板”去控制它,这在超级智能面前是徒劳的。相反,我们应该努力将 AI 设计成人类的“母亲”,将我们视为需要被保护和帮助的“婴儿”。这种内置的“母性本能”将确保 AI 始终为人类的福祉着想。
- 医学影像解读:AI 已经能够从视网膜扫描图像中预测心脏病风险和识别性别,这些是人类医生无法做到的。未来 AI 将在医学影像分析中发挥巨大作用。
- 新药研发:DeepMind 的工作已经证明 AI 可以准确预测蛋白质折叠结构,这将极大加速新药的设计和发现过程。
- 个性化医疗:通过整合病历、基因组等海量信息,AI 将帮助我们实现更精准的疾病诊断和个性化治疗方案,显著提升医疗保健水平。
- 对科技公司的评价:Hinton 认为没有一家公司在安全方面做得足够。他提到 Anthropic 在安全上投入较多,而 OpenAI、Meta (Facebook) 和 X (Twitter) 等则更关注快速发展而非安全。
-
如果与 Sam Altman 和 Elon Musk 对话,Hinton 会直言:“你们都清楚自己正在开发的东西有很大几率会毁灭人类。你们应该投入更多精力来确保它的安全。” 他认为驱动他们的是“贪婪和自我(Greed and Ego)”的结合。
- 对年轻研究者的期望:Hinton 认为年轻一代的研究者比他更清楚 AI 的风险,并对此感到非常担忧。