演讲人:许士伟 (金山办公) | 日期:2025年11月4日
一门关于“如何制作产品”的学问,通过三大方法论将大目标分解:
核心是“决策”,决定“做什么”和“怎么做”。演讲者认为,顶级产品经理和架构师做的都是设计决策,而非简单的执行。
所有工程和设计活动的最终目标,追求社会价值与商业价值的统一,本质是投资回报率(ROI)。
“好产品是用最少的功能实现最大的需求覆盖。”
这个定义强调了ROI思想:功能是成本,需求覆盖是价值。功能越少、满足的需求越广,产品就越好。演讲者以Go语言为例,其关键字极少,但表达能力强大,是这一哲学的典范。
架构设计的逻辑与产品设计完全一致,同样追求ROI。一个模块的价值体现在“被引用的次数”。
“架构最核心的能力,其实是对公共抽象的能力。”
演讲者认为,经典的CPU和计算机体系结构是“好产品”和“好架构”的终极典范。自70年代诞生以来,其核心功能(架构)从未改变,但其上层应用(需求覆盖)从大型机演化到了手机、机器人,满足了无限可能。
AI将彻底改变产品经理的工作流和产出物。
AI是强大的“副驾驶”,但无法取代架构师的核心判断。
“架构的好坏仍然是自己判定。”
开发和测试是目标明确、确定性高的“强过程”,因此是AI最擅长的领域。AI能极大地提升这两个环节的效率。
然而,高效的背后潜藏着巨大的风险。演讲者强调,最大的误区就是认为AI写的代码逻辑上是可靠的,而他的亲身经历证明了事实恰恰相反。
演讲者向AI下达为编译器添加新功能的任务,AI迅速生成了三个备选方案,他选择了其中最优的一个。
初版代码存在明显的功能缺失(“一上缺了一个小块”)。在指令AI修复此问题后,新生成的代码虽然补全了功能,却引入了一个更隐蔽的、与语法细节相关的逻辑错误(“一个细节就不太对”)。
这个逻辑错误在常规代码审查中未能发现,直到交付前的“连续进行测试”阶段才最终暴露。这证明了该缺陷能够轻易躲过开发阶段的常规检查。
“大家会有一个误区,会认为说大模型今天很牛逼,它写出来的代码不太可能出现逻辑问题... 事实证明AI写的代码是会实现问题的。”
AI代码最危险的陷阱是其表面的“高质量”。它语法正确、风格统一,容易让人误以为其逻辑也同样可靠。
但实践证明,AI代码的“高质量”仅限于语法层面,其逻辑层面是不可信的。人类工程师必须承担起逻辑正确性的最终审查责任。
既然AI会引入隐蔽的逻辑错误,那么测试就变得空前重要。但测试的关注点和方法论也需要随之进化。
在这种新模式下,人类负责“测试的智慧”,AI负责“测试的体力”。
演讲者引用了他在书中的一个思想实验:传统公司在“内部自建”和“外部采购/外包”之间做决策。而AI的出现,提供了一个近乎无限弹性的“虚拟劳动力”。
这意味着,公司内部的核心团队可以瞬间“调用”成千上万个“AI员工”来完成确定性的开发任务,这从根本上改变了企业的成本结构和生产力边界。
“应该在现在就一直到(拥抱AI),因为这个东西几乎是必然的。”