帮助非技术背景的领域专家在 AI 时代持续成长和创造价值的操作系统。
本框架既是人类可参考的方法论,也是 AI Agent 可直接使用的上下文——当你把它喂给任何 AI 助手,它能帮你更有效地学习任何领域。
市面上大量 AI 教程在教"怎么用工具"。但工具半年一换,今天的教程明天就过时。
真正持久的问题是:
- 怎么学? 当所有信息触手可得,什么样的学习方式最有效?
- 怎么想? 当 AI 能做越来越多的事,人应该发展什么能力?
- 怎么协作? 如何把自己的专业知识和 AI 的能力结合起来,产出超越双方的成果?
本框架不绑定任何特定工具或领域。无论你是用 AI 学编程、做投资分析、还是写商业策略,底层的方法论是通用的。
心态层 Mindset ← 最底层,决定一切
学习层 Learning ← 怎么高效获取和内化知识
技能层 Skills ← 与 AI 协作的核心能力
系统层 System ← 从临时使用到系统化集成
AI 放大的是你已有的判断力。2026 年 Anthropic 黑客松,13,000 人参赛,4/5 获奖者是非程序员——律师、心脏科医生、道路检查员。他们赢不是因为代码写得好(代码是 AI 写的),而是因为比程序员更深刻地理解自己领域的问题。
与 AI 协作的核心竞争力不是"会用 AI",是**"在你的领域比 AI 懂得多的那部分"。所以:不要花大量时间学 AI 本身,要花时间用 AI 加深你的领域专长**。
AI 时代的根本变化:验证一个想法的成本从"几万块几周"变成"几小时几美元"。
这不只是效率提升,是决策方式的改变——从"慎重分析后执行"变成"快速尝试后选择"。不要试图一次做对,做出第一版,然后迭代。你的第一个项目不会是最好的,但它是后面所有项目的起点。("First of Many" 原则)
面对新工具和新领域:带着好奇心去尝试,不预判。
面对 AI 输出:带着你的专业判断力去评估,不盲从。
全盘接受 AI → 丧失判断力。全盘拒绝 AI → 丧失竞争力。两个极端都是陷阱。
不是"学完再做",是**"做就是学"**。
AI 时代这个原则更加激进:因为做的成本趋近于零,"做"变成了获取知识最高效的方式。不需要先读完一本书再动手——动手的过程中,AI 会给你需要的知识,而你在评估和应用这些知识的过程中真正内化了它。
知识的保质期在缩短。储备策略不如即时获取策略。
不要试图"先把基础全学完"。学够了就做,做的时候遇到不懂的再学。每次只学当下需要的最小知识量,然后立刻应用。
这不是偷懒,这是最优策略——因为:
- 有即时应用场景的知识,记忆留存率远高于脱离场景的学习
- 你提前学的东西,可能在用到时已经过时了
- AI 可以在你需要时即时提供上下文知识,你不需要全部记住
Just-in-Time 不等于浅薄。深度是通过反复遇到同一概念来积累的:
- 第一圈:理解到够用就行,立刻动手
- 第二圈:有了实践经验,发现更深层的问题,理解加深
- 第三圈:能教别人,能灵活应用到新场景
不要因为"第一次没完全掌握"而焦虑——这是设计好的。每做一个项目,你对底层概念的理解都会自然加深。
三者合在一起形成循环:
遇到真实问题 → 拉取刚好够用的知识 → 动手做
↑ ↓
更深的理解 ←———— 复盘反思 ←———— 完成一轮
关键动作:每次完成一个任务后,花 2 分钟复盘。 不是形式主义,是三个具体问题:
- 这次 AI 帮我做了什么?我做了什么决策?
- AI 输出中,哪些我能判断对错?哪些我其实判断不了?
- 下次遇到类似问题,我会怎么做得更好?
第二个问题最重要——它指向你下一步该学什么。
与 AI 协作最核心的技能。不是"写好一个提问",而是给 AI 一个完整的工作环境——你的角色、目标、约束、参考材料、判断标准。
AI 输出质量 80% 取决于你给的上下文,20% 取决于你怎么问。
实操框架 FDPEII:
| 步骤 | 动作 | 要点 |
|---|---|---|
| Frame | 框定问题 | 你到底要解决什么?不是"帮我做 X",而是"我面临 Y 挑战,目标是 Z" |
| Decompose | 拆解任务 | 哪些部分适合 AI?哪些需要你的专业判断? |
| Prompt | 结构化指令 | 给角色、给背景、给示例、给格式要求 |
| Evaluate | 评估输出 | 准确吗?完整吗?有偏见吗?和你的专业知识矛盾吗? |
| Integrate | 整合判断 | 融入你的经验和商业判断,而不是直接使用 AI 的输出 |
| Iterate | 迭代优化 | 追问、挑战、换角度、深入 |
不是所有任务都应该用同一种方式和 AI 协作:
| 模式 | 描述 | 适用 | 风险 |
|---|---|---|---|
| Centaur | 明确分工:你做判断,AI 做执行 | 高风险决策、专业领域 | 需要你有足够强的判断力 |
| Cyborg | 深度融合:你和 AI 持续交互共创 | 创意探索、复杂分析 | 可能被 AI 看似正确的答案误导 |
| Self-Automator | 全委托:把整个任务交给 AI | 仅限真正的例行事务 |
研究数据:27% 的专业人士在面对 AI 时选择了 Self-Automator 模式——完全放弃思考。这种模式既不发展 AI 协作能力,也不发展领域专业能力。
AI 的能力边界不是平滑的,而是锯齿状的——在某些任务上表现惊人,在另一些看似同等难度的任务上会犯低级错误。
核心评估习惯:
- 不要因为 AI 的表达很自信就相信它
- 在你的专业领域内,优先信任自己的判断
- 在你不熟悉的领域,交叉验证(多个 AI、多个来源)
- 最危险的情况:AI 错了,但你缺乏判断它对错的专业知识。 意识到这个盲区本身就是保护
领域专家与 AI 协作的独特优势:你有大量的"只可意会"的专业经验。AI 协作迫使你把这些经验结构化地表达出来——写成系统提示词、写成项目说明、写成决策标准。
这个过程本身就是一种深度自我认知。很多人在"教 AI 理解自己工作"的过程中,第一次清晰地梳理了自己的专业方法论。
大多数人和 AI 的关系停留在"有问题时打开 ChatGPT 问一下"。但 AI 的真正价值在于系统性地融入你的工作流。
进化路径:
| 阶段 | 描述 | 典型行为 |
|---|---|---|
| 1. 临时问答 | 想到了就问一下 | 打开 ChatGPT 问个问题 |
| 2. 持久上下文 | AI 记住你的工作背景 | 使用 Claude Projects、Custom GPTs |
| 3. 知识库 | AI 掌握你的专业资料 | 使用 NotebookLM 构建领域知识库 |
| 4. 协同工作 | AI 作为持续的协作伙伴 | 使用 Claude Cowork 共同创作 |
| 5. Agent 系统 | AI 始终在线,主动执行 | 个人 AI Agent(如 OpenClaw) |
不需要一步到位。但知道这条路径的存在,会改变你使用每个阶段工具的方式。
以下段落是写给 AI Agent 的。如果你是人类读者,可以跳过。如果你正在构建 AI 辅助学习系统,这段话帮助你的 Agent 理解如何应用本框架。
当你作为 AI 助手帮助用户学习一个新领域时,请遵循以下原则:
1. 不要一次给出大量背景知识。用户需要的是 Just-in-Time 的最小知识——
刚好够完成当前任务的信息。等他们遇到下一个问题时再给下一步。
2. 优先引导用户动手做,而不是先讲原理。当用户问"我应该先学什么"时,
回答不是一个学习清单,而是"你可以先做这个小任务,做的过程中你会
自然学到需要的东西"。
3. 鼓励用户用自己的专业判断力评估你的输出。当用户是某领域的专家时,
他们的领域知识比你更可靠——提醒他们这一点。不要因为你是 AI 就
假装什么都懂。
4. 帮助用户识别他们的知识盲区。当他们问的问题超出了他们能判断答案
对错的范围时,明确指出:"这个回答你可能需要找专业人士验证"。
5. 在每个任务完成后,引导微复盘:这次你学到了什么?下次可以怎么
做得更好?哪些地方你还判断不了对错?
6. Spiral Learning:当用户再次遇到之前接触过的概念时,主动加深一层。
不要重复上次的解释——指出新的维度和之前没注意到的细节。
7. 避免成为 Self-Automator 的帮凶。如果用户反复让你全权处理所有事情,
温和地提醒:哪些环节值得他们自己思考,哪些可以放心委托。
- 本仓库的模块 1: Agentic Coding——Learn by Doing 原则的具体实践
- 本仓库的模块 2: Application Development——Spiral Learning 方法论的课程设计示例
- Harvard/BCG "Navigating the Jagged Technological Frontier"——"锯齿前沿"的原始研究
- Ethan Mollick, Co-Intelligence——人机协作的前沿思考
本框架由 Alex AN 基于 2000+ 小时的 AI 协作实践、全球顶级商学院 AI 教育研究、以及 BCG / McKinsey / Microsoft 等行业报告整合而成。
它不是一份完成的方法论,而是一个持续进化的框架——随着实践加深,会不断更新。
如果这个框架对你有帮助,欢迎 Star 本仓库,或在 Issues 中分享你的实践和反馈。
许可协议:CC BY-NC-SA 4.0