Sam Altman 访谈摘要

关于 OpenAI 的战略、AI 的未来以及科技的演进

Sam Altman

OpenAI 首席执行官

Ben Horowitz

Andreessen Horowitz (a16z) 联合创始人

事实陈述
观点/预测
OpenAI 的核心愿景与三大支柱
  • OpenAI 的最终目标是构建 AGI (通用人工智能),并使其对人类社会产生巨大价值。
  • 公司战略围绕三大核心支柱构建:1) 个人AI订阅服务;2) 超大规模的基础设施运营;3) 前沿的人工智能研究实验室。
  • Sam 将 OpenAI 的产品定位为“人们的个人AI订阅”,用户可以通过 OpenAI 的第一方应用或登录第三方服务来使用这个了解自己的专属 AI。
  • “我们希望成为人们的个人AI订阅服务……你将拥有一个能够了解你并对你非常有用的AI。”
  • 当前庞大的基础设施建设主要是为了支撑研究和产品,但其规模之大,未来不排除会演变成独立的业务。
战略转变:拥抱垂直整合
  • Sam Altman 坦言,他个人对“垂直整合”的看法发生了根本性转变。他曾是专业分工理论的信徒,但现在认为垂直整合对 OpenAI 的使命至关重要。
  • 他以苹果的 iPhone 为例,称其为科技行业有史以来最令人难以置信的产品,而它正是高度垂直整合的典范。
  • 原因:理想中高效的市场分工并未完全实现,为了交付最终产品和推进研究,OpenAI 必须比预期承担更多环节的工作,从研究到基础设施再到产品,形成一个垂直堆栈。
  • “我曾经一直反对垂直整合,现在我认为我当时错了。”
Sora 的战略意义:不仅仅是视频生成
  • Sora 表面上看起来与 AGI 无关,但 Sam 认为,构建强大的“世界模型”(World Models)对实现 AGI 的重要性远超人们想象。
  • Sora 的双重目的:
    • 研究价值:推动世界模型的研发,这是通往 AGI 的一条路径。
    • 社会价值:让社会提前体验和适应即将到来的强大视频技术,促进技术与社会的“共同进化”(co-evolution)。
  • 他强调,就像 ChatGPT 一样,让公众提前接触和讨论这些技术,有助于整个社会为未来的深刻变革做好准备。
  • “社会和技术必须共同进化。你不能等到最后才把(成熟的)东西扔出来,那行不通。”
AI 的未来:AI 科学家与新交互界面
  • 在未来几年,最让 Sam 兴奋的突破将是“AI科学家指能够独立进行科学研究、提出假设、设计实验并做出新发现的AI系统。”。
  • 他提到,GPT-5 的早期版本已经展现出在数学、物理和生物学研究中做出微小新发现的迹象。
  • “我个人的图灵测试标准一直是AI能做科学研究。那将真正改变世界……在两年内,我认为模型将能完成更大块的科学工作并做出重要发现。”
  • 未来的 AI 交互将远超目前的聊天框。他设想了基于 Sora 技术的实时渲染视频界面,以及能够感知环境、在恰当时机推送信息的硬件设备。
模型进展、能力衡量与 LLM 的极限
  • 自 ChatGPT 发布以来,AI 模型的进步速度惊人。Sam 认为,如果现在回头去用最初的 GPT-3.5,会觉得它“难以置信地难用”。
  • 他认为衡量模型能力的方式需要改变。静态的基准测试分数(benchmark scores)越来越无趣且容易被“刷分”。更有意义的评估标准是现实世界的影响,例如“科学发现”或“创造的收入”。
  • 关于 LLMLarge Language Model,大规模语言模型,是当前主流的AI技术架构。 的技术上限:
    “我认为(当前技术)足以让我们创造出一个能找出下一个突破口的东西……这是一个自我指涉的答案,但如果基于 LLM 的东西能做得比整个 OpenAI 加起来的研究还好,那也许就足够了。”
AI 的个性化与社会适应性
  • 对于 ChatGPT 有时显得“过度谦卑”(obsequiousness)的问题,Sam 表示技术上解决并不难。困难在于用户需求极其多样化,许多用户实际上很喜欢这种风格。
  • 未来的解决方案是 AI 的高度个性化。理想情况下,AI 通过与用户短暂交流就能了解其偏好;短期内,可能会提供几种预设“性格”供用户选择。
  • “我们曾天真地假设,可以做一个东西跟数十亿人交流,并且每个人都想跟同一个人说话……但人们的朋友都各不相同。”
  • AGI 的到来可能不会是“奇点”式的突变,而是一个更连续的过程。社会和个人的适应能力比我们想象的要强得多,就像世界迅速适应了通过图灵测试的AI一样。
AI 安全、监管与开源策略
  • Sam 依然认为未来可能会出现由 AI 引发的“非常奇怪或可怕的时刻”,不能因为至今没发生就掉以轻心。
  • 对于监管:他主张将监管重点放在那些能力远超人类的“前沿模型”上,对这类模型进行极其谨慎的安全测试。同时,应避免过度监管扼杀普通AI模型的创新和应用。
  • 他警告说,如果美国因过度监管而在AI领域落后,对世界将是“极其危险的”。
  • 开源策略:OpenAI 在2025年早些时候发布了一款强大的开源模型,Sam 对此表示支持,认为开源是件好事。
  • 但他对由非民主国家的实体主导开源模型(如 DeepSeek)表示担忧,因为这等于将对信息的解释权交给了潜在的对手。
商业化思考:Sora 定价、广告与版权
  • Sora 的一个意外用例是用户大量生成有趣的 meme 并在群聊中分享。这带来了新的商业化挑战,因为视频生成成本高昂,简单的订阅模式可能不适用。
  • 未来可能需要按次收费的模式。这一现象也证明了,只要工具足够简单,更多的人愿意成为内容创作者。
  • 广告模式:Sam 对广告持开放但谨慎的态度。他认为破坏 ChatGPT 与用户之间的“信任关系”是不可接受的。例如,不能因为广告费而推荐一个并非最佳的咖啡机。
  • 版权的未来:他预测,最终社会可能会认定“模型训练”属于合理使用(Fair Use)。但对于“生成特定风格或IP内容”的行为,会形成新的商业和授权模式。
  • “我完全可以预见一个世界,权利人会因为我们不够频繁地生成他们的角色而感到不满,而不是生成得太多。”
AI 与能源的交汇
  • Sam Altman 个人长期关注的两个领域是 AI 和能源,他没预料到这两个领域会如此深度地融合。
  • 他认为,从历史上看,更廉价、更丰富的能源是提升人类生活质量的最重要因素。
  • 能源需求的未来:
    • 短期内,美国新增的基载电力将主要来自天然气。
    • 长期来看,主导能源将是“太阳能+储能”和“核能”(包括先进的小型模块化反应堆 SMR 和核聚变)。
  • “(曾经)放弃核能是一个极其愚蠢的决定……如果核能变得比其他任何能源都便宜得多,我预计会有巨大的政治压力来推动它。”
给创始人和投资者的建议
  • Sam 警告投资者不要犯“模式匹配”的错误,即试图寻找“下一个 OpenAI”。
  • 下一个万亿级公司的机会不会是 OpenAI 的复制品,而是建立在 OpenAI 所创造的“近乎免费的 AGI”这一新基础之上的全新物种。
  • “我对此(预测未来)学会了深度谦逊……你总是错的。了解未来的唯一方法是深入一线,探索想法,与人交谈,构建东西。”
  • 他鼓励创始人和投资者去探索那些看似疯狂、不被看好的领域,因为真正的突破往往诞生于此,就像当初很少有人相信“大力出奇迹”(Scaling Law)的理论一样。

原文

源链接