💡 点击卡片翻转查看详情
01
产品哲学
假设 AI 变笨了,
你的产品还能用吗?
关于 UX 大于模型智商的逆向思维
点击查看逻辑推演 ↻
-
核心观点
构建产品时,Dax 假设模型能力短期内不会大幅提升,甚至在处理复杂旧代码时会“变笨”。
-
设计策略
Open Code 优化的是人机协作的“心流”(Flow State)。即使模型出错了,用户是否能极快地重新提示?是否能一键引用图片/文件?这些 UX 细节比单纯的模型 IQ 更重要。
-
行业批评
许多竞品依赖“未来模型会完美”的懒惰假设,导致当前体验糟糕。Dax 认为优秀的产品即使在此刻的“笨”模型下也应该是好用的。
02
商业模式
为什么要做赔本买卖?
Zen 的推理经济学
关于规模效应与 GPT-5 的定价之谜
点击揭秘 ↻
-
商业现状
Zen 是 Open Code 推出的推理网关服务,目前以“盈亏平衡”甚至亏损状态运行。
-
底层逻辑
推理服务是纯粹的规模经济游戏。需求量越大 -> 采购算力越多 -> 单价越低 -> 吸引更多用户。
-
惊人数据
Dax 透露他们的顶级模型(注:访谈中口误称 GPT-5,实指当前最强模型如 GPT-4o 或下一代)定价比 OpenAI 官方还便宜 15%。
-
市场洞察
虽然大家都在喊亏钱,但云大厂的推理利润率其实极高(Margins are crazy)。通过激进的规模化策略,小团队也能在缝隙中套利。
03
行业乱象
基准测试是
“自我欺骗”的艺术
为什么分数第一的产品并不好用?
点击查看事实核查 ↻
-
激烈批评
Dax 极度反感当前的 AI 基准测试(Benchmarks),认为它们大多是学术性的、脱离现实的(例如:在只有3个文件的仓库里解谜)。
-
用户感知
用户根本无法感知到基准测试上 1-2% 的微弱提升。如果一个产品靠刷榜来营销,这是不诚实的。
-
解决方案
Open Code 正在构建基于真实开源项目(如 Sentry)PR 历史的评估体系。只有当 AI 能重现真实的、复杂的工程变更时,测试才有意义。
04
构建策略
简单与强大并不对立
“原语优先”策略
如何同时服务小白用户和企业级专家?
点击查看架构思维 ↻
-
破除迷思
很多公司声称“像 Apple 一样简单”,实际上只是功能简陋。Dax 认为产品可以同时做到简单和强大。
-
构建方法
不要直接开发功能,而是先开发底层原语(Primitives)。
例如:先开发一个通用的“子智能体(Sub-agent)框架”,再用它配置出“搜索代码库”的功能。
-
长期收益
当用户成长为 Power User 时,他们可以绕过顶层 UI,直接调用底层原语来定制自己的工作流。这是开源工具能通过企业级验收的关键。
05
技术细节
Protobuf 能省钱吗?
自托管划算吗?
破解开发者的技术迷信
点击查看技术祛魅 ↻
-
Token 优化
有人建议用 Protobuf 代替 JSON 来节省 Token。Dax 认为这是迷信。虽然能省 1-2%,但引入了不确定性(模型对 JSON 最熟悉)。在无法确定是否会降低智能时,不要为了微小的成本优化牺牲准确性。
-
自托管模型
企业想要 Self-hosting 模型来省钱?通常是个伪命题。
原因: 硬件折旧极快、维护团队成本极高。除非你有现成的闲置硬件或极高的数据合规要求,否则很难比专业的推理服务商更便宜。
06
工具形态
IDE vs Terminal
谁是 AI 的最佳载体?
为什么选择在终端里做 AI 编程?
点击查看工作流 ↻
-
反对 All-in-One
Dax 认为编辑器(如 Cursor/VS Code)集成了太多 AI 功能会让界面变得拥挤、令人分心。
-
终端的优势
终端 Agent 就像一个“坐在你旁边的结对程序员”。你在编辑器专注写代码,偶尔看一眼旁边的终端窗口与 AI 交互。
-
技术实现
Open Code 虽然在终端运行,但集成了 LSP(语言服务协议)。这意味着它能像 IDE 一样感知代码错误、引用和定义,并非“瞎子”。
07
创业残酷真相
AI 救不了你的产品
不可替代的“人”
产品漏斗中 AI 无能为力的三个环节
点击查看演讲精华 ↻
-
Top Funnel (营销)
必须具备极强的创造力来打断用户的注意力。AI 生成的创意通常很“老套”(Corny),无法做到“酷”和“病毒式传播”。
-
Aha Moment (转化)
必须无情地砍掉多余步骤。例如 ChatGPT 只有一个输入框。这种极简的决策需要人类对人性的深刻洞察,AI 无法替你做减法。
-
Retention (留存)
依赖于对 Power Users 需求的深度理解和原语构建。
-
总结
创业依然艰难,AI 并没有让“打造伟大产品”这件事变得容易。
08
未来预测
预测越自信,
离真相越远
关于行业 Flux 状态与多任务陷阱
点击查看避坑指南 ↻
-
中心悖论
“离中心(大模型实验室)越近的人,预测往往越不准。” Dax 认为开发者工作流正处于剧烈动荡(Flux)中,不要轻信 5 年后的预测。
-
多任务陷阱
反对同时运行 10 个 Agent。虽然看起来很高效(感觉像黑客),但人类无法有效管理这么多并发上下文,最终产出往往不如串行工作。
-
诚实生产力
承认有时候手动写代码比指挥 AI 更快,更能理清思路。不要为了用 AI 而用 AI。