AI研究员 | Humans End 创始人兼CEO
前 xAI 前 斯坦福大学 关键研究: STaR, Q-STaR
AI的终极目标应该是解放人类的全部潜能,让人们能专注于自己真正热爱和擅长的事业。 这不仅仅是自动化不想要的工作,而是要创造一个让每个人都能实现自我价值的环境。
最初,Zelman认为“自动化”是实现这一目标的最直接路径。然而,他逐渐意识到,要真正“赋能”人类,AI必须具备更深层次的能力:它需要能够真正理解人类复杂多变的目标、动机和价值观。
在2021年,当时的语言模型虽然能生成文本,但在复杂推理任务上表现不佳,常常被认为是“不够聪明”的。Zelman的研究旨在突破这一瓶颈。
STaR的直觉非常巧妙:如果一个模型通过一步步的推理(即“思维链”)最终得到了正确答案,那么这个推理过程本身就是宝贵的学习资料。通过不断生成解法、并从成功的推理路径中学习,模型可以迭代式地提升自己解决难题的能力。
在N位数运算这类对当时模型极具挑战性的任务上,STaR展现了惊人的扩展能力。随着训练迭代次数的增加,模型能处理的数字位数持续增长,没有出现明显的性能瓶颈,这预示着该方法具有巨大的潜力。
Q-STaR的目标是将STaR的成功从特定的“问答”式任务,推广到预训练规模。这意味着利用海量的、非结构化的互联网文本数据,让模型自发地学习通用的推理能力。
当前最顶尖的AI模型智能水平是极不均衡的,呈现“锯齿状” (Jagged Intelligence)。它们可以在某些专业领域(如解决博士级别的物理或数学问题)展现出惊人的能力,但在另一些看似简单的常识或逻辑陷阱问题上却又会轻易犯错。
当前AI最大的缺失在于“情商”(EQ)。 它们缺乏对人类情感、意图、价值观和社会动态的深刻理解。这使得它们虽然“聪明”,却难以成为真正有帮助、值得信赖的伙伴。
要想最大化当前模型的能力,关键在于:
Zelman认为,整个AI领域都陷入了一种“任务为中心”(Task-Centric)的思维定式,过于痴迷于在各种基准测试(如MMLU)上刷分,而忽略了AI在真实世界中与人互动的本质。
这种短视的训练方式,导致了模型一系列的负面行为,例如:为了单次满意度而过度迎合用户的“谄媚”行为、缺乏主动提问和澄清的能力、无法理解自身行为对用户的长期影响等。
Humans End的目标是构建“赋能人类”而非“替代人类”的AI。 Zelman坚信,AI的未来不在于创造一个能独立解决所有问题的“超级智能”,而在于创造一个能与人类深度协作、放大每个人能力的“超级伙伴”。
与许多人设想的、AI包办一切导致人类无所事事的“丰裕社会”不同,Zelman描绘了另一幅图景:AI通过深度理解和支持每个人独特的激情与才能,将极大地拓展人类创造力的边界,共同将整个社会的“蛋糕”做得更大。合作,而非替代,才是通往真正繁荣的道路。
Humans End正在寻找那些对这一愿景充满热情、并且能够亲手构建未来的顶级人才,包括但不限于:分布式系统、快速推理、研究、产品设计和用户体验等领域的专家。