Jeremy Howard 深度访谈全息摘要

解码 AI 的本质、彻底审视 Claude Code 与软件工程的终极未来

🎙️ 访谈人:Tim Scarfe

身份: 机器学习街头访谈 (MLST - Machine Learning Street Talk) 创始人兼主持人。

背景: 前微软工程师,资深AI研究者。以其硬核、哲理性和极具思辨深度的提问风格著称。

🧠 受访嘉宾:Jeremy Howard

身份: 深度学习先驱、Kaggle Grandmaster、Fast.ai 联合创始人、Answer.ai 创始人。

核心贡献: NLP迁移学习里程碑 ULMFiT 发明者。极力倡导消除AI门槛与交互式编程(Exploratory Programming)。

🔑 核心金句 (Key Quotes)

“LLM 只是在‘扮演’(Cosplay)理解事物……它们假装懂了,但在训练分布之外,它们会暴露出连世界基本运作前提都不懂的愚蠢。”
“AI 编程就像玩老虎机,给你一种控制的错觉……你精心设计提示词、调用工具,但最终你只是在拉动控制杆,等待随机的掉落。”
“强迫开发者在盲目的基于行的文本终端中与 AI 交互,永远不看文件本身……我认为这简直令人作呕,是不人道的。”
“真正的危险不是自动化的‘纳米黏液’毁灭世界,而是嗜权者利用对 AI 末日的恐惧,将这项通用技术完全垄断在少数寡头手中。”
  • 事实
    在 2017 年之前,NLP 领域的预训练+微调(Transfer Learning)几乎无人问津。Jeremy 借鉴了 Yann LeCun、Jason Yosinski 等人在计算机视觉中的半监督/自监督学习(如 DINO 论文、医学影像遮挡还原),将其跨界应用到语言模型,诞生了 ULMFiT。
  • 观点
    科学研究中缺乏想象力是一个普遍问题,人们往往认为某种技术(如逐渐解冻网络层)只在特定领域(如CV)有效,而忽略了跨领域的普适性。
  • 事实
    ULMFiT成功的关键不仅是语料,更是极其细致的微调策略:使用 AWD-LSTM 施加五种正则化、判别式学习率(Discriminative Learning Rates)(不同层不同学习率),且必须微调 Batch Norm 层。
  • 观点
    与“持续学习会破坏原有表征”的普遍认知相反,只要仔细观察激活值和梯度分布(避免神经元“死亡”),让模型学习两个相似的任务,往往会比只学一个任务表现更好。

Hierarchy of Abstractions

抽象层次结构

悬停翻转

底层逻辑

语言模型为了极致压缩并精准预测“下一个词”,必须在模型深处构建关于现实世界的层级结构。它需要理解总统、领导人、社会阶层乃至物体的存在,才能输出符合逻辑的下文。这构成了AI“看似拥有知识”的基础。

Discriminative Learning

判别式学习率

悬停翻转

微调圣经

在微调神经网络时,不使用单一全局学习率。底层(通用特征如语法)学习率低,顶层(任务相关特征如情感)学习率高。结合逐层解冻(Unfreezing),只需极短时间即可达到 SOTA 效果。

  • 观点
    AI 是否具有创造力需要非常细致的界定。借用 Margaret Boden 的创造力层级,LLM 极度擅长“组合创造力”(Combinatorial Creativity),即把记忆中的海量知识进行巧妙拼接,但这并非真正的“域外(Out-of-distribution)”创造。
  • 事实
    Chris Lattner(LLVM之父)曾惊叹 Anthropic 的 Claude 写出了一个“无尘室(Clean-room)”的 Rust 版 C 编译器。但 Jeremy 一针见血地指出:这根本不是无尘室创造!LLVM 的原理早被咀嚼了无数遍存在于训练集中,Claude 甚至完美复刻了 Chris 当年在 LLVM 中写出的一个历史上独一无二的错误架构。这纯粹是高维空间内的插值(Interpolation)与风格迁移。
  • 观点
    约翰·塞尔(John Searle)的“中文房间”理论是对当今 LLM 最好的注脚。LLM 只是在“扮演”(Cosplay)理解事物。在插值范围内,扮演与真实的理解没有区别;但一旦触及边界,模型就会轰然倒塌,暴露出连基本常识都没有的愚蠢。

Combinatorial Creativity

组合创造力本质

悬停翻转

非线性平均点

记忆大师 Piotr Wozniak 认为创造力来源于海量记忆的重组。LLM 完美契合这一点。它并非在创造新知识,而是在其庞大的训练集中,找到了例如“Rust 语法”与“LLVM 编译器构建逻辑”之间的非线性平均点。这是插值,而非外推。

Constraint & Evaluation

约束与评价函数

悬停翻转

幻觉的脚手架

为什么 AI 看起来能解决复杂数学(如 Gemini)或 ARC 挑战?因为人类预先给定了评估函数(Verifier)作为绝对约束。AI 利用统计模式匹配和暴力搜索(Brute Force),在脚手架的约束下不断迭代,这不叫“灵光一闪”。

  • 核心争议
    Anthropic CEO Dario Amodei 宣称 AI 编程将带来生产力的爆炸甚至大规模失业,Elon Musk 甚至认为以后直接输出机器码即可。Jeremy 直斥:“这些科技大佬最近根本没写过代码,他们把敲击语法(Coding)和软件工程(Software Engineering)混为一谈。”
  • 实证数据
    针对大厂内部的真实调研(METR 及 Anthropic 自身的研究)打脸了“高生产力”幻觉:员工在“氛围编程”(Vibe Coding)时感觉自己变快了,但实际发布的有效高质量软件产出(Uptick)微乎其微,甚至生产力在下降,因为他们失去了对系统的整体把控。
  • 老虎机效应
    Jeremy 分享了自己长达 14 小时的 Claude Code 马拉松体验:这完全像在赌场里拉老虎机。开发者修改提示词(Prompt)、设定 MCP,然后“拉动控制杆”等待随机结果。偶尔出现的有效代码就像老虎机掉落金币(Cherry!),这种间歇性强化带来了强烈的成瘾性,最终引发严重的认知耗竭(Dark Flow)。
  • UI 反人类
    Jeremy 极其厌恶 Claude Code 默认的基于命令行(CLI)的工作流。“这让我感到恶心和不人道。”完全不看代码文件,只通过盲目的终端进行黑盒交互,彻底切断了人类与代码之间“内脏级的本能连接”(Visceral Connection)。
  • 看涨情境
    客观来说,在领域极其明确、人类开发者拥有完整心理模型且问题规模足够小的场景下,Claude Code 确实能让 Jeremy 的效率飙升 50 倍。但这只是极少数资深架构师的特权,无法在组织层面平滑扩展。

The Slot Machine Effect

编程老虎机效应

悬停翻转深度解析

控制的幻觉

Rachel Thomas 撰文指出,AI 编程具备了赌博成瘾的所有特征:将失败伪装成胜利、强烈的随机性、以及虚假的控制感。开发者觉得自己懂了,其实系统早已滑向失控,这种长期的黑盒摸索会榨干人的精力。

No Silver Bullet

没有银弹 (Fred Brooks)

悬停翻转深度解析

被遗忘的真理

早在几十年前,《人月神话》作者 Fred Brooks 就预言,就算有了第四代语言,软件开发的效率提升也有其硬性上限。因为软件开发的本质是“找出需要组合哪些抽象碎片”,而不是“把碎片敲成代码”。AI 目前只解决了后者。

  • 案例灾难
    Jeremy 举了一个真实的案例:Jupyter 核心库 IPykernel(超过5000行复杂的多线程、锁和ZMQ协议代码)版本7更新后崩溃。他通过来回切换 GPT-4 和 Claude 最终修好了它,但结果是:世界上出现了一段完美运行却没有任何人类理解的代码。
  • 观点
    这种现象被称为“理解债务”(Understanding Debt)。如果一个公司的核心产品建立在由AI生成、无人能懂的复杂逻辑之上,那么未来任何微小的协议变动都会引发毁灭性的系统崩塌。
  • 事实
    César Hidalgo 提出“知识是不可替代的(Non-fungible)”。真正的学习必须伴随现实的反推(Reality pushes back)带来的摩擦力(Friction)。过于顺滑的 AI 剥夺了开发者跨越“适度困难”(Desirable Difficulty)的机会,导致组织能力枯萎。
  • 观点
    组织就像演化的生命体。哪怕是客服中心这种所谓“低智力要求”的岗位,也是组织感知异常边缘情况(Edge cases)的触角。过度自动化会导致组织失去感知世界和自我更新的能力。

Understanding Debt

理解债务

悬停翻转

定时炸弹

当代码库中 AI 生成的比例从 10% 悄然蔓延到 60%,人类开发者就在不知不觉中完成了“能力让渡”。一旦遇到深层 Bug(如内存泄漏或竞争条件),组织将面临无人能修的绝境,大量初创公司将死于这种庞大的技术债务。

Slope over Intercept

斜率胜过截距

悬停翻转

组织的真正护城河

引用斯坦福 John Ousterhout 的名言:“一点点成长的斜率,足以弥补大量基础能力的截距”。如果一味追求用 AI 榨取当前的绝对产出(截距),而放弃了培养员工解决复杂问题的能力(斜率),企业就是在自寻死路。

  • 观点
    传统的软件工程范式(冷冰冰的独立文件、割裂的编译运行)是完全错误的。真正高效的开发应该回归 Alan Kay (Smalltalk)、Iverson (APL) 和 Wolfram (Mathematica) 倡导的理念:让对象可视化,允许实时操作。
  • 事实
    针对著名演讲《我不喜欢 Notebooks》(Joel Grus),Jeremy 曾做过戏仿反击。他指出,数据科学家把 Notebook 写得一团糟,是因为缺乏配套的工程工具。因此 Fast.ai 开发了 nbdevnb-merge-driver,完美解决了 Jupyter 单元格在 Git 中的冲突,实现了源码、测试与文档的实时统一。
  • 观点
    AI 编程的正确形态(如 Answer.ai 的 Solveit 理念),是把人类和 AI 一起放进 Python 解释器(REPL 环境)中。人类可以借此极大地加深对系统心智模型的理解,这与使用 Claude Code 后令人精疲力竭的“黑盒榨取”有着天壤之别。

Exploratory Programming

探索性/交互式编程

悬停翻转

Visceral Connection

正如著名人机交互先驱 Brett Victor 所倡导的,创造者必须与他们创造的东西建立“内脏级的本能连接”。只有在能即时操作、即时看到状态反馈的交互式环境(REPL/Notebook)中,人类才能建立起可靠的系统心智模型。

  • 事实
    在著名的“AI 末日风险信件”(由 Hinton, Demis Hassabis 等联署)引发恐慌时,Jeremy 联合 Arvind Narayanan(《AI 蛇油》作者)发表了强有力的反驳,直击“末日邪教”(Doomsday Cult,如 Eliezer Yudkowsky 派系)的逻辑漏洞。
  • 观点
    哪怕 AI 真的具有极大威力,用“集中监管”来防范风险也是最愚蠢的策略。这只会正中下怀,将这项通用技术和海量数据完全让渡给嗜权者、垄断企业(如 OpenAI)以及具有监控动机的政府承包商(如 Palantir)。
  • 核心结论
    从历史来看(文字的普及、印刷术的诞生、选举权的下放),既得利益者总是试图论证“新技术交给大众是危险的”。抵御 AI 带来的攻防不对称风险的唯一有效途径,不是集中力量锁死 AI,而是让技术充分开源、分布到全社会每个人的手中。
  • 核心认知
    软件工程的本质不是“敲代码” 编码(Coding)只是将脑海中的设计转化为特定语法的“风格迁移”(Style Transfer)。真正的软件工程是去识别需要哪些组件、如何定义它们的行为规范、构建抽象层级,并将它们精准拼合成为一个更宏大的系统。这是当前大模型极度不擅长的领域,也是人类工程师不可替代的价值所在。
  • 避坑指南
    警惕“截距陷阱”,专注“斜率” 个人和企业绝不能因为短期的生产力诱惑,单纯用 AI 去榨取“绝对产出(Intercept)”,这无异于自我致残。必须时刻关注成长的“斜率(Slope)”,勇于面对学习中的摩擦力(Desirable Difficulty),维持真正的认知成长。
  • 行动指南(个人)
    重塑人机协同交互环境 坚决抵制完全剥夺视觉和控制权的盲目 CLI 黑盒工具(比如 Claude Code 默认的终端模式)。拥抱探索式和交互式编程(如 Notebooks、REPL、nbdev),将 AI 和人类共同置于一个能即时交互、提供状态反馈的环境中,让 AI 协助你深化直觉与系统的心智模型。
  • 行动指南(组织)
    保留摩擦力与支持自由演进 不要盲目追求流程的全自动化,或用传统官僚主义软件工程教条来扼杀探索性开发(例如强制数据科学家放弃 Notebook)。相反,应当提供更好的底层工具(如 nb-merge-driver 等),在保留探索边界的同时,平滑接入现代 CI/CD 工作流。

Slope over Intercept

斜率胜过截距原则

悬停翻转

长期主义制胜

放弃对用 AI 榨取绝对短期产出的迷恋。任何让自身或团队沦为“只会打字的 AI 提示员”的流程,都是在走向失业和破产。必须确保在 AI 的辅助下,个人和组织依然保持陡峭的成长斜率与思考深度。

Interactive Co-creation

交互式人机共创

悬停翻转

拒绝黑盒代理

工具应该让人类变得更聪明、更快乐。不要把完整的系统构建直接扔给 AI,而应该在有状态、能即时提供反馈的编程环境里与 AI 协作(如同在 Python 解释器中对话),借此构建对复杂系统的绝对掌控感。

原文

源链接