Day 7:Week 1 复盘与考试
学习目标
今天的目标只有一个:检验你这一周到底学到了什么。
很多人的学习过程是这样的:看的时候觉得都懂了,做题的时候发现都不会,一到实际场景就完全蒙了。今天就是帮你发现”你以为懂了但其实没懂”的那些点。
复盘不是简单的回顾,而是有针对性的自我检测和知识巩固。今天的内容包含六个板块的复盘、闭卷测试、口述训练和对外内容输出。通过这些不同形式的练习,从不同角度检验你的理解深度。
完成今天的学习后,你应该能完整讲清 AI 应用开发的全景图,能解释大模型的边界,能把 AI 概念映射到半导体等具体行业场景。如果某个板块的复盘让你觉得”好像还不太清楚”,那就回到对应那天的内容重新学习——Week 1 的内容是后面七周的地基,地基不牢后面全都会飘。
核心概念
一、AI 全景复盘
第一天学的 AI 应用开发全景图,是整周内容的框架。所有后续的概念——LLM 原理、Prompt 工程、结构化输出、模型选择、应用类型——都可以映射到这个框架中的某个位置。
复盘要点:
AI 的层级关系。AI 包含机器学习,机器学习包含深度学习,深度学习包含大语言模型,在大模型之上构建应用就涉及 Agent。这五层不是平行的,而是层层包含的。理解这个层级关系,能帮你快速定位一个”AI 项目”到底需要什么层级的技术。
九大模块。输入层、模型层、知识层、工具层、流程层、记忆层、评估层、安全层、交付层。不是每个应用都需要全部九个模块,但你需要知道每个模块解决什么问题。当客户提出需求时,你能快速判断需要哪些模块。
五种架构。Chatbot、RAG、Workflow、Agent、Multi-Agent。从简单到复杂,从确定性到灵活性。选择架构的依据是任务复杂度、流程确定性和可控性要求。
系统工程思维。AI 应用开发不是写 Prompt,是系统工程。Prompt 只是系统中的一个组件。完整的系统需要处理输入管理、模型调用、结果校验、流程编排、安全防护、质量评估等一系列工程问题。
深入理解九大模块之间的数据流。用户请求从输入层进入系统,流程层负责编排处理步骤。如果任务需要外部知识,流程层会调用知识层做检索;如果需要执行动作,流程层会调用工具层。模型层负责所有与大模型的交互——无论哪个模块需要模型能力,最终都通过模型层统一调用。记忆层维护对话和任务的状态,让系统有上下文感知。评估层在关键节点检查输出质量,安全层在输入和输出两端做过滤,交付层把最终结果呈现给用户。这条数据流路径你应该能闭着眼睛画出来。
从 Chatbot 到 Multi-Agent 的架构选择不是单选题。实际项目中经常出现混合架构——主流程用 Workflow 编排,某些需要灵活决策的节点嵌入 Agent,Agent 内部又可能使用 RAG 来获取知识。理解每种架构的特点不是为了死板地选一种,而是为了在合适的环节用合适的方案。一个成熟的企业 AI 系统,往往是多种架构的有机组合。
自测方法:试着不看笔记,画一张 AI 应用开发全景图。包含九大模块及其关系、五种架构的复杂度递进。画完后和第一天的笔记对比,看遗漏了什么。如果你能在 5 分钟内画出一张完整的、逻辑自洽的全景图,说明 Day 1 的内容你已经内化了。
二、LLM 核心概念复盘
第二天学的大模型原理,是理解 AI 应用”为什么需要这么多模块”的基础。
复盘要点:
大模型的本质。它是一个概率生成系统,不是知识库。它根据上下文概率预测下一个词。这个本质决定了它会幻觉、它不稳定、它需要外部约束。
训练三阶段。预训练(在海量文本上学习语言能力)→ 指令微调(学会听指令)→ RLHF(对齐人类偏好)。三个阶段各解决不同的问题,缺少任何一个模型的实用性都会大打折扣。
关键概念。Token(模型处理文本的最小单位)、Context Window(单次能处理的最大长度)、Embedding(把文本变成向量)、Attention(理解词语之间的关系)、Temperature(控制输出随机性)、Hallucination(编造错误信息)。
大模型的边界。它不是数据库(不能精确查询数据)、不是搜索引擎(不能获取实时信息)、不是计算器(复杂计算可能出错)。理解这些边界,才能正确使用大模型。
企业应用三件套。RAG(供给事实)、Tool Calling(执行动作)、Eval(质量保证)。这三者是把大模型从”聊天工具”变成”业务系统”的关键。
自测方法:用你自己的话,向一个完全不懂技术的人解释大模型是怎么工作的。如果他能听懂,并且理解为什么大模型会产生幻觉,说明你真的懂了。
三、Prompt 体系复盘
第三天学的 Prompt 工程,是和大模型沟通的核心技能。
复盘要点:
Prompt 的作用和局限。Prompt 是和大模型沟通的桥梁,但它不能改变模型的能力边界、不能保证输出稳定、不能替代外部知识、不能执行动作、不能自我验证。理解这些局限,才能在正确的范围内使用 Prompt。
System Prompt 和 User Prompt。System 定义”你是谁、你怎么工作”,User 定义”你现在要做什么”。两者配合产生高质量输出。
四要素框架。Role(角色)、Task(任务)、Context(上下文)、Constraint(约束)。一个完整的企业级 Prompt 通常四者兼备。
Few-shot Prompting。通过提供示例来引导模型学习输入输出模式。示例质量比数量重要。
Prompt Contract 思维。把 Prompt 看作契约——输入约定、输出约定、边界约定。Contract 思维是从”随便写写”进化到”结构化管理”的关键。
企业级 Prompt 结构。不只是文字,而是包含元数据、输入定义、模板、示例、质量标准、测试用例、变更记录的完整文档。
版本管理。Prompt 是需要迭代的,需要版本管理来支持回滚、评估、协作和复现。
自测方法:不看任何参考资料,设计一个行业分析 Prompt。要求包含完整的 Role-Task-Context-Constraint 四要素。写完后对照第三天的 Prompt Contract 模板,检查是否遗漏了关键部分。
四、结构化输出复盘
第四天学的结构化输出,是大模型能力和工程系统之间的桥梁。
复盘要点:
为什么需要结构化输出。自然语言输出无法被程序可靠处理——解析困难、格式不稳定、信息遗漏、边界模糊。结构化输出通过预定义的数据格式解决了这些问题。
JSON Schema。定义 JSON 输出结构的规范语言。它把”期望的输出格式”从自然语言描述变成了机器可读的规范。可以校验字段类型、必填性、值范围、枚举值等。
Pydantic。Python 的数据校验库。用类型注解定义数据结构,自动生成 JSON Schema,自动校验数据。与 FastAPI 等框架深度集成。
失败处理。模型输出可能格式不合法、结构不符合、内容不达标、输出截断。处理方式包括格式修复、重试机制、降级处理、错误记录和人工介入。
下游衔接。结构化输出的最终目的是与下游系统(数据库、前端、API、报告生成器)衔接。设计 Schema 时要从下游需求出发。
自测方法:为”半导体良率分析报告”设计一个 JSON Schema。至少包含:分析时间、产品型号、良率数据、异常因素列表、改进建议。写完后检查:字段类型是否合理?约束是否足够?下游系统能直接使用吗?
五、应用类型复盘
第六天学的 AI 应用类型地图,是从技术到商业的桥梁。
复盘要点:
12 类应用。Chatbot、RAG 知识库、文档分析系统、数据分析助手、内容生成系统、Workflow 自动化、Agent 系统、Multi-Agent 系统、AI Copilot、AI 搜索、AI 报告生成系统、AI Native SaaS。
每类应用的画像。适用场景、输入、输出、核心技术、难点、商业价值。不是要你死记硬背,而是要你理解每类应用的”性格”——它适合做什么、不适合做什么。
架构选择的依据。任务复杂度(简单还是复杂?)、流程确定性(固定流程还是需要灵活决策?)、可控性要求(需要严格管控还是可以给 AI 自由度?)。
个人方向选择。基于市场需求、个人优势、技术可行性和商业化潜力,选出自己重点发展的方向。这个选择会影响你后续七周的学习重心。
自测方法:给出 5 个具体的业务需求(比如”让工程师能快速查找工艺规范”、“自动生成每月的经营分析报告”等),判断每个需求适合用哪种 AI 应用类型。如果判断速度慢或判断不准,说明对应用类型的理解还需要加强。
六、半导体 AI 场景复盘
半导体场景是贯穿整周的行业练习场景。回顾一下你在半导体场景上做了哪些思考。
Day 1:用半导体场景解释 AI 如何嵌入业务流程。你列出了哪些场景?每个场景适合什么架构?
Day 2:用半导体良率分析场景解释大模型边界。大模型能做什么?不能做什么?
Day 3:你为半导体场景设计了什么 Prompt?是工艺分析?是良率报告?
Day 4:你为半导体场景设计了什么 JSON Schema?是良率数据的结构化输出?
Day 5:半导体 AI 场景需要哪些模型?Embedding 做文档检索、通用模型做分析、多模态做缺陷图片识别?
Day 6:半导体企业的 AI 需求适合用哪种应用类型?RAG 知识库做工艺文档检索?报告生成做良率分析报告?Agent 做异常自动排查?
把这些天的思考串联起来,你应该能形成一个比较完整的”半导体 AI 提效方案”的雏形。这个方案应该包含:半导体企业的核心痛点、每个痛点对应的 AI 解决方案、方案的架构选择、需要的技术栈、成本估算。
具体来说,一份合格的半导体 AI 提效方案雏形应该覆盖以下内容:
核心痛点列表。半导体企业在生产环节面临的主要痛点包括:良率波动难以快速定位根因、工艺参数调整依赖工程师经验、设备异常预警不及时、质量异常溯源效率低、工程师知识传承困难(老工程师离职后经验流失)。这些痛点不是泛泛的”效率不高”,而是具体到某个环节、某个岗位、某个具体动作。
痛点到方案的映射。良率波动问题适合用数据分析助手 + Workflow 自动化——自动采集良率数据、按预设规则分析波动原因、生成异常报告。工艺参数调整问题适合用 RAG 知识库——把历史工艺参数和对应效果整理成知识库,工程师输入当前情况,系统检索相似历史案例给出参考。设备异常预警需要 Agent 系统——Agent 持续监控设备数据,发现异常后自动排查可能原因、调取相关文档、通知相关工程师。知识传承问题适合用 RAG + 文档分析系统——把工程师的经验记录、故障案例、解决方案全部入库,新工程师可以随时查询。
技术栈选择。Embedding 模型用于文档向量化(处理工艺文档、故障案例),通用对话模型用于分析和生成(生成报告、回答问题),多模态模型用于缺陷图片识别(芯片表面的缺陷检测),Reranker 模型用于检索结果优化。根据 Day 5 学的模型路由策略,简单查询用小模型,深度分析用大模型,控制总成本。
成本估算框架。以一个月 1000 次调用为基准,估算每次调用需要的 Token 数量、选择的模型级别、对应的费用。区分低成本模式(小模型 + 简单检索)和高质量模式(大模型 + Reranker + 深度分析),给客户两个档位的选择。
实战分析
闭卷回答 20 个问题
找一张白纸或者一个空白文档,不看任何笔记,回答以下 20 个问题。每个问题用 2-3 句话回答。答完后对照笔记给自己打分,每个问题 5 分,总分 100 分。
这 20 个问题覆盖了 Week 1 的所有核心知识点。如果你能答出 80 分以上,说明你对 Week 1 的内容有了扎实的理解。如果低于 60 分,建议花一天时间重新学习得分最低的板块。
录制 5 分钟口述
找一台手机或电脑,录制一段 5 分钟的视频或音频,向一个不懂 AI 的企业管理者解释:
第一分钟:什么是 AI 应用开发?它和”用 ChatGPT”有什么区别?
第二分钟:大模型是怎么工作的?它为什么会出错?
第三分钟:企业为什么不能只靠 Prompt?还需要什么?
第四分钟:AI 应用有哪些类型?给企业推荐哪种?
第五分钟:如果你是企业的 AI 顾问,你能帮企业做什么?
口述的目的是检验你是否真正内化了这些知识。写笔记的时候你有很多时间思考和组织语言,但口述要求你即时表达——真正理解的知识你能随口说出来,没理解的知识你会卡壳。
录完后自己听一遍。评判标准:逻辑是否清晰?语言是否通俗(没有堆砌术语)?5 分钟内是否讲清了核心要点?如果能让一个不懂 AI 的老板听懂并产生兴趣,就是成功的。
生成 Week 1 总结文档
写一份 Week 1 的学习总结,不是简单罗列学过的内容,而是:
关键收获。这一周你学到的最重要的三个认知是什么?为什么重要?
认知变化。学习之前你对 AI 应用开发有什么误解?现在怎么理解?
知识漏洞。哪些内容你觉得还没有完全掌握?打算怎么补?
下一步计划。基于 Week 1 的学习,你对接下来的 Week 2-8 有什么新的期待或调整?
完成一篇对外内容
写一篇面向外部读者的文章,主题是”为什么普通人学 AI 停留在问答阶段”。
这篇文章的目标读者是对 AI 感兴趣但没有技术背景的普通用户或企业管理者。文章要回答:为什么大多数人用 AI 只是问答?问答之外还有哪些可能性?真正的 AI 应用长什么样?企业应该怎么规划 AI 化路径?
写作要求:不用专业术语(如果必须用就要解释)、有具体的例子、有自己的观点和判断、字数 1500-2000 字。
当日产物说明
《Week 1 学习总结》
一份个人化的学习总结文档,不是知识点的复述,而是你对知识的消化和反思。包含关键收获、认知变化、知识漏洞、下一步计划四个部分。质量标准:体现真实的思考,不是空洞的套话。
《AI 应用开发 5 分钟口述稿》
一份 5 分钟的口述文稿,面向不懂 AI 的企业管理者,解释 AI 应用开发的核心概念。质量标准:逻辑清晰、语言通俗、不堆砌术语、5 分钟能讲完。可以先写稿再录制,也可以先自由口述再整理成文。
《Day1-Day7 核心概念表》
一份包含 Week 1 所有核心术语的表格。每个术语包含:中文名称、英文名称、一句话定义、首次出现的日期。建议按主题分组(基础概念、模型原理、Prompt 工程、结构化输出、模型选择、应用类型)。质量标准:覆盖 Week 1 的所有核心术语,定义准确简洁。
《为什么普通人学 AI 停留在问答》
一篇面向外部读者的科普文章。质量标准:非技术人员能看懂、有具体例子、有个人观点、1500-2000 字。这篇文章也可以作为你后续内容获客的素材。
常见误区与避坑
误区一:复盘就是再看一遍笔记
被动地重读笔记效果很差。有效的复盘是主动的——不看笔记先回忆,能想起来的就是真正掌握的,想不起来的就是需要加强的。20 个闭卷问题就是为此设计的。
误区二:跳过口述环节
口述看起来简单,实际上是对理解深度的最强检验。写作时你有时间思考和组织,口述时你必须即时表达。如果你在口述时频繁卡壳、逻辑混乱、堆砌术语说不到重点,说明你的理解还停留在表面。
误区三:只关注得分,不关注原因
闭卷测试的得分不重要,答错的原因才重要。是因为概念混淆?是因为没记住?还是因为压根没理解?不同的原因对应不同的补救方式。混淆的概念需要对比学习,没记住的需要强化记忆,没理解的需要回到原始材料重新学习。
误区四:忽视知识漏洞
复盘时发现的”好像还不太清楚”的知识点,不要跳过。Week 1 是后面七周的地基。如果地基有裂缝,后面构建的内容都会不稳。花时间把漏洞补上,比急着进入 Week 2 更重要。
误区五:对外内容不敢发表
很多人写了对外内容但不发布。其实发布出去才能得到真实的反馈。你的理解是否准确?表达是否清晰?观点是否有价值?这些只有外部读者能告诉你。不要追求完美,先发布再迭代。
误区六:把复盘当成终点
有些人觉得做完 Week 1 的复盘,第一周就”结束”了,可以头也不回地冲向 Week 2。但复盘的真正价值在于持续参考。在后续学习过程中,当你遇到某个概念感觉”好像在哪里见过但想不起来了”,应该回到 Week 1 的笔记中查找。Week 1 的全景图是贯穿整个学习周期的参考框架,不是用完就扔的一次性文档。建议在每周的开始,花 10 分钟快速浏览上一周的复盘笔记,保持知识的连续性。
误区七:闭卷测试时自我放水
有些人做闭卷测试时,遇到想不起来的问题就偷看笔记,然后安慰自己”其实我是知道的,只是暂时忘了”。“暂时忘了”就是没记住,没记住就是没掌握。闭卷测试的价值就在于它帮你在安全的环境中发现知识漏洞。在真实场景中(比如和客户沟通时),你偷看不了笔记。所以请严格闭卷,诚实面对自己的掌握程度。答错的题目标注出来,这些就是你需要重点复习的知识点。
延伸思考
Week 1 的复盘不只是回顾过去,更是为未来做准备。
Week 2 将进入更实操的阶段——API 调用、结构化输出工程实践、Function Calling、Prompt 模板库建设、后端架构设计。这些内容需要 Week 1 的理论基础。如果 Prompt 的四要素框架(Role-Task-Context-Constraint)你不清楚,Week 2 设计 Prompt 模板时就会无从下手。如果 JSON Schema 的概念你没理解,Week 2 做结构化输出实践时就会一头雾水。
从学习曲线来看,Week 1 是”认知建设”阶段,重点在于建立正确的理解框架。Week 2-4 是”动手实践”阶段,重点在于把认知转化为实际的工程能力。Week 5 是”工程化”阶段,重点在于让 Demo 变成可交付的系统。Week 6-8 是”商业化”阶段,重点在于把技术能力转化为可销售的服务。
站在 Week 1 的结尾,你应该已经能回答这个问题了:“AI 应用开发到底是什么?“如果你的答案是”就是写 Prompt 跟 ChatGPT 聊天”,那这一周你需要重新来过。如果你的答案是”是把大模型的能力封装到一个工程系统里,让系统能够稳定、可重复、规模化地解决业务问题的系统工程”,恭喜你,你已经建立了正确的认知框架。
接下来的 49 天,就是在这个框架上不断填充细节、提升能力、做出成果的过程。
还有一点值得深思:Week 1 的学习方式(理解概念、建立框架、行业映射)和后续几周的学习方式(写代码、搭系统、做 Demo)有本质区别。Week 1 是”想清楚”,后面是”做出来”。很多人喜欢直接跳到”做”,因为写代码有即时反馈,看起来更有成就感。但如果你没想清楚就动手做,最终做出来的东西要么方向错了,要么架构错了,返工的成本远高于先花时间想清楚。
Week 1 的另一个隐性收获是”建立了正确的 AI 心智模型”。所谓心智模型,就是你遇到 AI 相关问题时的第一反应。如果有人问你”能不能让 AI 帮我自动处理客户邮件”,你的第一反应不应该是”可以,我写个 Prompt 试试”,而应该是:“这个任务需要理解邮件内容、判断意图、决定处理方式——这是 Agent 级别的需求。需要 RAG 来获取产品信息和客户历史,需要工具来调用邮件系统和 CRM,需要人工审核节点来处理高风险情况。“这种系统化的思考方式,就是 Week 1 要训练的核心能力。
从知识管理的角度看,Week 1 建立的概念框架也是你后续学习的”索引”。当你遇到一个新技术或新概念时,你可以快速把它归类到框架中的某个位置——这是模型层的优化、这是知识层的新方法、这是评估层的新工具。有索引的学习比无索引的学习效率高得多。
自测问题(闭卷测试 20 题)
以下 20 个问题覆盖 Week 1 的全部核心内容。请闭卷作答,每个问题用 2-3 句话回答。
-
AI、机器学习、深度学习、大语言模型、Agent 之间是什么关系?
-
AI 应用系统的九大模块分别是什么?(至少列出 7 个)
-
为什么说 Prompt 不是 AI 应用的全部?给出三个理由。
-
大模型的本质是什么?为什么说它不是数据库也不是搜索引擎?
-
什么是 Token?它和”词”有什么区别?
-
什么是 Context Window?它对 AI 应用设计有什么影响?
-
幻觉是什么?它的根本原因是什么?能完全消除吗?
-
企业应用为什么需要 RAG、Tool Calling 和 Eval?
-
System Prompt 和 User Prompt 各自承担什么角色?
-
Role-Task-Context-Constraint 框架中,每个要素的作用是什么?
-
什么是 Few-shot Prompting?它解决什么问题?
-
Prompt Contract 思维和普通 Prompt 写法有什么本质区别?
-
企业级 Prompt 应该包含哪些部分?(至少列出 5 个)
-
为什么自然语言输出在企业应用中不够用?
-
JSON Schema 解决什么问题?它和”在 Prompt 里要求输出 JSON”有什么区别?
-
当模型的 JSON 输出格式错误时,应该怎么处理?
-
通用对话模型和推理模型的核心区别是什么?
-
什么是模型路由?为什么一个应用可能需要多个模型?
-
RAG 知识库和 Chatbot 的核心区别是什么?
-
Workflow 和 Agent 的核心区别是什么?各适合什么场景?
关键词(Week 1 全部核心术语)
基础概念
- AI:让机器表现出智能行为的技术总称
- ML(机器学习):让机器从数据中自动学习规律的方法
- DL(深度学习):使用多层神经网络学习复杂数据模式的技术
- LLM(大语言模型):用海量文本训练的超大规模语言模型
模型原理
- Token:模型处理文本的最小单位
- Context Window:模型单次能处理的最大 Token 数量
- Embedding:把文本转换为数学向量的技术
- Attention:让模型理解词语间关系的机制
- Transformer:大模型的底层架构
- Pretraining:在海量文本上预训练的阶段
- Instruction Tuning:用指令-回答对微调的阶段
- RLHF:基于人类反馈的强化学习
- Temperature:控制输出随机性的参数
- Hallucination:模型编造错误信息的现象
Prompt 工程
- System Prompt:系统级固定指令
- User Prompt:用户级具体任务输入
- Role/Task/Context/Constraint:Prompt 四要素框架
- Few-shot Prompting:通过示例引导模型的技术
- Prompt Contract:把 Prompt 当契约设计的思维方式
结构化输出
- JSON:轻量级数据交换格式
- JSON Schema:定义 JSON 结构的规范语言
- Pydantic:Python 数据校验库
模型选择
- 通用对话模型:处理多种任务的通用模型
- 推理模型:专门优化推理能力的模型
- Embedding 模型:专门做文本向量化的模型
- Reranker 模型:对检索结果重排序的模型
- 模型路由:根据任务自动选择模型的机制
应用类型
- Chatbot:基础对话式 AI 应用
- RAG:检索增强生成的知识库系统
- Workflow:固定流程的自动化系统
- Agent:能自主规划和执行的系统
- Multi-Agent:多 Agent 协作的系统
- Copilot:嵌入工作流程的辅助工具
- AI Native SaaS:以 AI 为核心的软件服务