在 AI 工具泛滥的当下,我没有选择 Manus、NotebookLLM 这类一站式方案,而是搭建了一套半自动的协作流程。原因很简单:我希望对信息源和 AI 摘要的上下文保持控制权。这篇文章分享我如何通过工具选择、自动化脚本和人工判断相结合,在研究和学习中达到满意的效果。
思考,做 AI 不擅长的事。让 AI 做擅长的认知增强。
这是整个工作流程的基础原则。人类负责价值判断、信息源筛选、目标设定和质量把关;AI 负责大规模文本处理、摘要提取、格式转换和重复性工作。不是让 AI 替代思考,而是让 AI 增强认知能力,把人的精力集中在更需要判断力和创造力的环节。
工具链的基础是选择当前能力最强的模型:
使用 Claude Code 或 Cursor 等 AI coding 工具写脚本,逐步把手动处理部分自动化。
如文档处理、音视频处理等,都转换为大模型输入友好的 Markdown 文件。这样可以统一信息格式,方便后续的批量处理和摘要提取。
使用 Claude Code 的自定义 commands,做一些大模型自动化的功能。
通过 Cursor 或 Claude Code 的交互对话,实验出效果后,把常用的写成 commands。例如生成博客文章、发布博客等操作,都可以固化为可重复执行的命令。
有一个信息源信任判断问题,书是我选的。根据知名度、朋友的信任背书,也参考了 GPT-5 给的推荐。而不只是公共资源(容易平庸)。对于专业领域、有深度的内容,可能不能依赖于公开搜索。
每次接近 1M 的上下文窗口,使用了 Gemini Pro 2.5 的 1M 窗口。源头信息包括:
书籍纯文本一般在 1M 以内,使用脚本和开源工具转换。顺便做了书籍翻译。
顺便翻译和摘要。
YouTube 语音识别导出的脚本,一般也在 1M 以内。顺便也做了 AI 音频译制。
使用录音卡,语音转换,注意声纹识别。一般 1 个小时的会议,字幕也在 1M 以内。
使用 chatbot 的 MCP,分析有价值群聊里的关键内容。
一般在公众号或博客中。
这个跟 ChatGPT 对话时可以获得。
每一个资源的摘要过程中,始终告诉模型最终的目标。我要写一篇关于什么的文章,但不事先给结论。如果不翻译为中文,消耗不了太多 token。
非 RAG,而是层层摘要,类似 Claude Code 的 compact,压缩信息。每一次的结果都要确认一下,容易遗漏。这些副产品可能是书籍摘要、视频博客摘要。针对你感兴趣的目标和方向去摘要。
AI 生成的过程中,我都在快速阅读概览,然后做大纲笔记,把我认为重要的写下来。越重要的可能就越详细。
告诉他你认为哪些重要,给他价值观排序。例如最后摘要生成时,我一定会再告诉他我的笔记的摘要,是我认为重要的要点。
这样人工参与,确保了可信的源头、个人的价值判断、自始至终的输出目标。但也要有基本的注意:
不观点先行,不自证。虽然自己不能完全做到,但必须让 AI 做到。
关注 AI 给出的反常信息,可能是自己的知识盲区。避免自负。
只研究自己擅长或正在深入的领域,避免泛泛。以实践和作品为动力,去学习研究。多行动。
追求领域知识和经验的深度,挖掘非大众但深入的洞见,注重社区传播的内容。远离流量,流量内容只关注其中引用的源头信息。
交朋友,请教领域专家,以信任增强信息价值。
所有 token 效果(让 AI 做的输出),务必读完,也就是说有需求才去做,要解决自己明确的问题。不要为了分享或别人看而去消耗。会形成囤积癖,主要是会产生很多不可判断的垃圾信息,导致对知识库失去信任。
最终输出的东西,起码可以代表自己的观点。