Day 1:AI 应用开发全景地图

学习目标

今天的目标只有一个:建立对 AI 应用开发的完整认知框架。

很多学 AI 的人,学了两个月还停留在”跟 ChatGPT 聊天”的阶段。根本原因是他们脑子里没有全景图,不知道 AI 应用到底由哪些部分组成,不知道从哪里开始、往哪里走。今天我们要解决的就是这个问题。

完成今天的学习后,你应该能回答以下问题:AI 应用开发和”用 AI”有什么本质区别?一个完整的 AI 应用系统包含哪些模块?Chatbot、RAG、Workflow、Agent 这些概念到底是什么关系?为什么企业 AI 不是写好 Prompt 就够了?

这些问题的答案构成了你后续 55 天学习的地基。地基不牢,后面所有内容都会浮在表面。

核心概念

一、AI、机器学习、深度学习、大模型、Agent 的层级关系

理解这五个概念的最简单方式是把它们想象成一套俄罗斯套娃,每一层都包含在前一层之内,但每一层都比前一层更加具体。

人工智能(AI)是最外层的套娃,也是最宽泛的概念。它指的是让机器表现出智能行为的任何技术。早在 1950 年代,计算机科学家就在研究怎么让机器下棋、证明数学定理。那时候的 AI 和今天的大模型没有任何关系,但它们都属于 AI 这个大类。

机器学习(ML)是 AI 的一个子集。它的核心思想是:不让人类手写所有规则,而是让机器从数据中自动学习规律。举个例子,如果你想做一个垃圾邮件过滤器,传统做法是人工编写规则——如果邮件包含”中奖”就标记为垃圾邮件,如果包含”免费领取”也标记。但规则永远写不完,垃圾邮件发送者也在不断进化。机器学习的做法不同,你给模型看一万封垃圾邮件和一万封正常邮件,让它自己发现区分两者的模式。

深度学习(DL)是机器学习的一个子集,它使用多层神经网络来学习数据中的复杂模式。深度学习在 2012 年左右开始爆发,主要原因是两个:算力(GPU)变得足够便宜,数据量变得足够大。图像识别、语音识别这些任务,深度学习的效果远远超越了传统机器学习方法。

大语言模型(LLM)是深度学习的一个特定应用方向。它用海量文本数据训练超大规模的神经网络,让模型学会理解和生成人类语言。GPT 系列、Claude、Gemini、LLaMA 都是大语言模型。它们的共同特点是:参数量巨大(几十亿到几千亿),训练数据海量(互联网上的大量文本),能力通用(一个模型能做翻译、写作、编程、推理等多种任务)。

Agent(智能体)是在大模型基础上构建的应用形态。如果说大模型是一个超级大脑,那 Agent 就是给这个大脑装上了手和脚——它能感知环境、制定计划、使用工具、执行动作、根据反馈调整策略。Agent 不只是回答问题,它能完成任务。

用一个比喻来总结:AI 是整个宇宙,机器学习是太阳系,深度学习是地球,大模型是地球上的人类文明,Agent 是一个能干活的工人。每一层都是前一层的特殊化。

为什么要搞清这个层级关系?因为在实际工作中,你遇到的很多问题需要回到正确的层级去找答案。比如客户说”我要一个 AI 系统”,你脑子里应该马上反应过来:他要的是什么层级的 AI?是一个简单的基于规则的自动化流程?还是一个需要机器学习的预测系统?还是一个基于大语言模型的文本处理应用?还是一个能自主执行任务的 Agent?不同层级的方案,技术栈、成本、周期完全不同。

二、AI 应用开发的真实含义

很多人理解的”AI 应用开发”就是在 ChatGPT 网页上输入一段文字,然后复制结果。这不叫 AI 应用开发,这叫使用 AI。

AI 应用开发是把大模型的能力封装到一个系统里,让这个系统能够稳定地、可重复地、规模化地解决特定的业务问题。

打个比方。你会用 Excel 的求和公式,这不叫开发财务系统。真正的财务系统是:把求和公式嵌到一套完整的工作流里,配合数据校验、权限控制、报表生成、异常提醒,让非技术人员也能准确高效地完成财务工作。

AI 应用开发也是同样的道理。你需要把大模型的能力嵌到一套工程系统里。这个系统至少要处理以下问题:

输入管理——用户怎么把需求告诉系统?是文字输入、文件上传、还是数据库对接?输入的内容需要做什么预处理?要不要做格式校验、敏感信息过滤、长度限制?

模型调用——什么时候调用模型?调哪个模型?传什么参数?要不要多轮对话?流式输出还是一次性返回?调用失败了怎么办?超时了怎么处理?

结果处理——模型返回的结果怎么解析?怎么保证格式正确?怎么校验内容的准确性?结果要存到哪里?要不要做后处理?

业务流程——一个任务可能需要多次模型调用,中间的流程怎么编排?每一步的输出怎么传给下一步?出错后怎么回滚?用户中途怎么介入?

评估反馈——系统输出好不好?用什么标准衡量?怎么自动评估?怎么收集用户反馈?怎么基于反馈持续优化?

安全控制——用户输入了恶意内容怎么办?模型输出了不当内容怎么办?数据隐私怎么保护?调用权限怎么管理?

这些问题加在一起,构成了 AI 应用开发的完整含义。它的本质是系统工程,不是写 Prompt。

三、Chatbot / RAG / Workflow / Agent / Multi-Agent 区别

这五个概念是 AI 应用开发中最核心的架构模式,理解它们的区别是入门的第一步。

Chatbot(聊天机器人)是最基础的 AI 应用形态。用户发消息,模型回复消息,就这么简单。ChatGPT 网页版就是一个 Chatbot。它的特点是单轮或简单的多轮对话,没有外部知识,没有工具调用,完全依赖模型自身的知识。适合做通用问答、闲聊、简单咨询。

RAG(检索增强生成)在 Chatbot 基础上加了一个知识库。模型不再只依赖自身训练时的知识,而是先从你的文档库里检索相关内容,再基于这些内容来生成回答。RAG 解决的核心问题是:大模型不知道你公司的内部信息。比如你问”我们公司的年假政策是什么”,模型本身不知道答案,但如果它能从公司员工手册里找到相关内容,就能准确回答。

Workflow(工作流)是一种固定流程的自动化方式。你预先定义好一系列步骤,每个步骤可能调用模型,也可能执行其他操作(查询数据库、调用 API、发送邮件等),步骤之间有明确的输入输出关系。Workflow 的特点是流程是预先设计好的,不会根据中间结果动态调整。就像工厂流水线,产品按固定路线经过每个工位。

Agent(智能体)是一种更灵活的架构。你给它一个目标,它自己决定要做什么、调用什么工具、按什么顺序执行。Agent 有规划能力、工具使用能力、反思能力。它像是一个能自主思考的员工,你告诉他目标,他自己想办法完成。

Multi-Agent(多智能体)是多个 Agent 协作完成复杂任务。每个 Agent 有自己的专业领域和职责,它们通过某种机制协调、通信、整合结果。Multi-Agent 适合特别复杂的任务,单个 Agent 难以胜任的场景。

为了更直观地理解它们的区别,可以这样想:Chatbot 是一个只能说话的客服,RAG 是一个带资料库的客服,Workflow 是一个按流程手册办事的专员,Agent 是一个能灵活应变的项目经理,Multi-Agent 是一个专业团队。

在实际项目中,这些架构不是互斥的,而是可以组合使用的。一个 RAG 系统内部可能包含 Workflow 来编排检索流程。一个 Agent 系统内部可能使用 RAG 来获取知识。一个 Multi-Agent 系统中,每个 Agent 可能都是一个包含 RAG 能力的智能体。

选择哪种架构取决于三个因素:任务的复杂度、流程的确定性、对可控性的要求。任务简单就用 Chatbot,需要外部知识就用 RAG,流程固定就用 Workflow,需要灵活决策就用 Agent,任务特别复杂就用 Multi-Agent。

四、AI 应用系统九大模块

一个完整的 AI 应用系统可以拆解为九个模块。这九个模块不是每个 AI 应用都必须全部实现,但你需要知道它们的存在,因为随着应用复杂度的增加,你会逐一遇到它们。

输入层:用户与系统交互的入口。它负责接收用户的各种输入——文字消息、文件上传、语音输入、图片输入等。输入层不只是简单地传递数据,它还需要做预处理:格式校验(用户上传的是不是支持的文件类型?)、长度限制(输入文本太长怎么截断?)、敏感信息过滤(输入里有没有密码、身份证号之类的隐私数据?)、意图识别(用户想做什么?是提问、下指令、还是闲聊?)。输入层是系统的门面,它的设计直接决定了用户体验。

模型层:系统的核心计算引擎。它负责与大语言模型交互——选择合适的模型、构造请求参数、发送请求、处理响应。模型层需要考虑很多工程问题:多个模型之间怎么切换?用 GPT-4 还是 Claude?什么时候用便宜的小模型,什么时候用贵的大模型?怎么处理模型的速率限制?怎么应对模型服务不可用的情况?怎么统计 Token 用量和成本?一个好的模型层应该把这些复杂性全部封装起来,让上层业务代码不需要关心底层细节。

知识层:系统获取外部知识的通道。大模型的知识来自训练数据,有截止日期,也不知道企业内部信息。知识层就是弥补这个缺陷的。它通常包含文档解析(把 PDF、Word、Excel 转成可处理文本)、文本切块(把长文档切成小段)、向量化(把文本变成数学向量)、向量存储和检索(根据用户问题找到最相关的文本片段)。知识层是 RAG 架构的核心,也是企业级 AI 应用的必备模块。

工具层:系统执行动作的能力。大模型只能生成文字,不能发邮件、查数据库、调用 API。工具层就是给系统装上”手脚”。一个工具通常包含:工具定义(这个工具能做什么,需要什么参数)、工具选择(根据当前任务决定用哪个工具)、工具执行(实际调用工具并获取结果)、结果处理(把工具返回的结果转成模型能理解的格式)。常见的工具包括:网络搜索、数据库查询、文件读写、邮件发送、API 调用等。

流程层:系统的任务编排引擎。一个复杂任务通常需要多个步骤,流程层负责决定步骤的执行顺序、条件分支、循环逻辑、错误处理。流程层有两种风格:固定流程(Workflow)和动态流程(Agent)。固定流程是预先设计好的,每一步做什么都确定了;动态流程由 Agent 根据实际情况实时决策。实际项目中往往是两种风格的混合——大流程是固定的,某些节点由 Agent 灵活处理。

记忆层:系统的状态管理机制。它负责存储和管理对话历史、用户偏好、任务进度等上下文信息。记忆层的设计直接影响系统的连贯性和个性化能力。记忆分为短期记忆(当前对话的上下文)和长期记忆(跨对话的用户信息、历史交互记录)。短期记忆通常用对话历史列表实现,长期记忆通常用数据库或向量存储实现。记忆层还需要考虑上下文长度限制——当对话历史太长超过模型能处理的范围时,需要做截断或压缩。

评估层:系统的质量保证机制。它负责评估系统输出的质量,包括:准确性(输出的内容是否正确?)、完整性(是否遗漏了重要信息?)、格式合规(输出格式是否符合要求?)、安全性(有没有输出不当内容?)。评估可以自动化(用另一个模型来评估输出质量),也可以人工审核(人在循环中检查关键输出)。评估层是持续优化系统的基础——没有评估,你根本不知道系统好不好,更不知道往哪个方向优化。

安全层:系统的防护机制。它负责应对两类威胁:外部攻击和内部风险。外部攻击包括 Prompt 注入(用户精心构造输入来绕过系统限制)、数据投毒(在知识库中植入误导信息)。内部风险包括模型幻觉(模型编造虚假信息)、数据泄露(模型输出了不应该公开的信息)、工具越权(Agent 调用了不应该调用的工具)。安全层需要在输入端做过滤、在输出端做审查、在工具调用时做权限检查。

交付层:系统的用户界面和部署架构。它决定了用户怎么使用这个系统——是一个网页应用、一个微信机器人、一个 API 接口、还是一个嵌入到现有系统中的功能模块?交付层还需要考虑:用户认证和权限管理、多租户隔离(不同客户的数据互不可见)、计费和用量统计、监控和告警、高可用和容灾。

这九个模块不是独立工作的,它们之间有紧密的协作关系。一次典型的用户交互可能是这样的:用户通过输入层提交问题,系统在记忆层找到相关上下文,通过知识层检索相关文档,在流程层编排处理步骤,由模型层调用大模型生成回答,经过评估层检查质量,通过安全层过滤风险内容,最终由交付层把结果呈现给用户。如果任务需要执行动作,还会调用工具层的工具。

五、为什么 Prompt 不是 AI 应用的全部

这是初学者最容易犯的错误。很多人以为做一个 AI 应用就是写好一个 Prompt,然后在 ChatGPT 里跑就行。

Prompt 确实重要。它是你与大模型沟通的方式,好的 Prompt 能显著提升输出质量。但 Prompt 只是 AI 应用系统的一个组件,就像菜谱只是开餐厅的一个要素。

为什么 Prompt 不够?

第一,Prompt 不能保证输出稳定。同样的 Prompt,模型可能给出截然不同的回答。在企业应用中,这种不确定性是不可接受的。你需要结构化输出、格式校验、重试机制来保证稳定性。

第二,Prompt 不能获取实时信息。模型的知识停留在训练数据的截止日期。你问它今天的新闻、最新的股价、公司内部的政策,它要么说不知道,要么编一个答案。你需要 RAG、工具调用来获取实时信息。

第三,Prompt 不能执行动作。模型只能生成文字。你要让它发邮件、改数据库、调接口,光靠 Prompt 做不到。你需要工具层、流程层来实现真正的自动化。

第四,Prompt 不能保证安全。用户可以通过精心构造的输入绕过 Prompt 的限制,让模型做不该做的事。你需要安全层来防护。

第五,Prompt 不能规模化。一个 Prompt 也许能在一个人使用时表现良好,但当一千个人同时使用,当输入格式千奇百怪,当并发请求压上来,光靠 Prompt 就撑不住了。你需要完整的工程系统来支撑规模化。

一个极端但形象的比喻:Prompt 就像是对一个新员工说的第一句话。你告诉他”帮我分析一下半导体行业的 AI 机会”,他也许能给出一个还不错的答案。但如果你要建立一个真正高效的团队,你需要工作流程、知识库、工具系统、质量检查、安全规范、培训体系。AI 应用开发就是建立这套完整体系。

六、为什么 AI 应用开发是系统工程

把前面的内容串起来,你应该能看出:AI 应用开发不是某一项技术的应用,而是多种技术的系统整合。

系统工程的本质是处理复杂性。AI 应用的复杂性来自几个方面:

模型的不确定性。传统软件的行为是确定性的——相同的输入永远产生相同的输出。但大模型不是这样。同样的输入可能产生不同的输出,而且你无法完全预测它会输出什么。这种不确定性要求你在系统设计中加入大量的校验、重试、降级机制。

数据的多样性。企业数据不是干净的、标准化的文本。你会遇到 PDF 里的表格、扫描件的图片、Excel 里的数据、Word 里的嵌套格式。每一种数据格式都需要专门的处理逻辑。

用户需求的模糊性。用户往往说不清楚自己要什么。“我想要一个 AI 帮我分析业务”——分析什么业务?分析的维度是什么?输出什么格式的结果?需要多久?需要多准?系统设计者需要把这些模糊需求翻译成明确的技术方案。

成本与效果的平衡。大模型的调用是有成本的。GPT-4 每次调用可能花费几毛钱到几块钱。如果一个任务需要调用十次模型,每天有一千个用户使用,一个月的成本就是几万到几十万。你需要在效果和成本之间找到平衡点——不是所有任务都需要最贵的模型。

安全与可控。AI 系统不像传统软件那样完全可控。模型可能产生幻觉,Agent 可能做出意料之外的行为。你需要在系统中设计足够的控制机制,同时不牺牲太多灵活性。

正因为这些复杂性,AI 应用开发需要系统思维。你不能只关注某一个环节(比如 Prompt),而要从整体架构出发,考虑各个模块如何协作,如何处理异常情况,如何持续优化。

概念关系图

AI 应用开发全景图

+------------------------------------------------------------------+
|                        AI 应用系统                                |
|                                                                  |
|  用户交互                                                         |
|  +-----------+     +-----------+     +-----------+               |
|  | 输入层    | --> | 流程层    | --> | 交付层    |               |
|  | (接收请求)|     | (编排步骤)|     | (返回结果)|               |
|  +-----------+     +-----+-----+     +-----------+               |
|                          |                                       |
|              +-----------+-----------+                           |
|              |                       |                           |
|         +----+----+            +-----+-----+                    |
|         | 模型层  |            | 工具层    |                    |
|         | (调LLM) |            | (执行动作)|                    |
|         +----+----+            +-----+-----+                    |
|              |                       |                           |
|  +-----------+-----------+-----------+-----------+               |
|  |           |           |           |           |               |
|  | 知识层    | 记忆层     | 评估层    | 安全层    |               |
|  | (RAG)    | (上下文)   | (质量)    | (防护)    |               |
|  +----------+-----------+-----------+-----------+               |
|                                                                  |
+------------------------------------------------------------------+

AI 应用架构层级

Chatbot < RAG < Workflow < Agent < Multi-Agent
(简单)                                  (复杂)

+----------+   +----------+   +-----------+   +----------+   +------------+
| Chatbot  |   |   RAG    |   | Workflow  |   |  Agent   |   | Multi-Agent|
|          |   |          |   |           |   |          |   |            |
| 问 -> 答 |   | 问 -> 检 |   | 触发 ->   |   | 目标 ->  |   | 目标 ->    |
|          |   | 索 -> 答 |   | 固定流程  |   | 灵活决策 |   | 团队协作   |
|          |   |          |   | -> 结果   |   | -> 结果  |   | -> 结果    |
+----------+   +----------+   +-----------+   +----------+   +------------+

实战分析

画 AI 应用开发全景图

这个任务的目的是把抽象概念具象化。画图的过程就是思考的过程。

具体画法建议:在画面中心放置”AI 应用系统”这个核心概念,向外辐射九大模块,用箭头标注它们之间的数据流和协作关系。然后在全景图的一侧标注五种应用架构(Chatbot 到 Multi-Agent),用渐进的方式表示复杂度的递增。

这张图不需要美观,但需要逻辑清晰。画完之后,找一个完全不懂 AI 的人,试着用这张图向他解释什么是 AI 应用。如果他听懂了,说明你的图是对的。

整理 50 个 AI 核心关键词

关键词整理的目的是建立术语体系。AI 领域有大量专业术语,初学者经常被各种名词搞混。

建议把 50 个关键词分成几类:基础概念类(AI、ML、DL、LLM 等)、模型相关类(Token、Context Window、Temperature 等)、应用架构类(RAG、Agent、Workflow 等)、工程实践类(Prompt、JSON Schema、API 等)、评估安全类(Eval、幻觉、Prompt 注入等)。

每个关键词不仅要写出定义,还要写一个一句话的解释——如果你能用简单的语言向非技术人员解释清楚这个词,说明你真正理解了。

写一段自己对 AI 应用开发的定义

这个任务看似简单,实际上是在强迫你用自己的语言把今天的知识内化。

不要照抄指南里的话,用自己的理解来写。定义应该包含三个要素:AI 应用开发是什么(本质),它解决什么问题(价值),它包含哪些要素(范围)。

写完之后放在一边,第二天再拿出来看。如果你觉得昨天的定义有需要修改的地方,说明你在进步。

用半导体场景解释 AI 如何嵌入业务流程

这个任务是在练习把技术概念映射到具体行业。半导体是一个好的练习场景,因为它有丰富的业务流程和明确的数据需求。

思考路径:半导体企业的核心业务流程有哪些?从外延片制造到芯片测试封装,每个环节都有哪些数据和知识可以 AI 化?哪些环节适合用 Chatbot(比如设备操作问答)?哪些适合用 RAG(比如工艺文档检索)?哪些适合用 Workflow(比如良率分析报告生成)?哪些适合用 Agent(比如生产异常自动排查)?

不要泛泛地想”AI 可以帮半导体提升效率”,而是要具体到某个环节、某个场景、某个岗位、某个痛点。越具体,越能体现你对 AI 应用开发的理解。

当日产物说明

《AI 应用开发全景图》

这是一张概念关系图,核心要素是九大模块及其协作关系,五种应用架构及其复杂度递进关系。可以手画也可以用工具画,重点是逻辑清晰而非美观。质量标准:一个不懂 AI 的人能通过这张图大致理解 AI 应用系统的组成。

《AI 核心关键词 50 个》

一份术语清单,每个词包含:中文术语、英文原名、一句话定义、所属类别。建议按类别分组排列,方便后续查阅。质量标准:覆盖 AI 应用开发最常用的术语,定义准确且通俗易懂。

《我理解的 AI 应用开发》

一段 300-500 字的文字,用你自己的语言定义 AI 应用开发。质量标准:不是照抄定义,而是体现了你自己的理解和思考。包含本质、价值、范围三个要素。

《半导体 AI 提效场景草图》

一份场景分析文档,列出半导体企业中至少 5 个可以用 AI 提效的具体场景,每个场景标注适合的应用架构类型(Chatbot/RAG/Workflow/Agent/Multi-Agent)。质量标准:场景足够具体,不是泛泛而谈,能对应到真实的业务环节。

常见误区与避坑

误区一:认为 AI 应用开发就是写 Prompt

这是最常见的误区。Prompt 只是 AI 应用系统的一个组件。把它等同于整个应用开发,就像把写 SQL 等同于做数据库系统一样荒谬。Prompt 决定了模型输出的上限,但工程系统决定了输出的下限。在企业应用中,下限比上限更重要。

误区二:认为 Agent 万能,什么都想用 Agent

Agent 是强大的架构,但不是所有场景都需要。简单的问答用 Chatbot 就够了,固定流程用 Workflow 更可控。Agent 的灵活性意味着不确定性增加、成本增加、调试难度增加。选择架构应该从简单到复杂,不要一上来就上最复杂的方案。

误区三:把九大模块当成必须全部实现的清单

九大模块是一个参考框架,帮助你理解和规划。实际项目中,简单的应用可能只需要输入层、模型层、交付层就够了。随着需求增长,再逐步加入知识层、工具层等其他模块。不要追求一步到位,而是根据实际需要逐步构建。

误区四:混淆”使用 AI”和”开发 AI 应用”

使用 AI 是个人行为——你在 ChatGPT 里写 Prompt,得到回答,你满意了就行。开发 AI 应用是工程行为——你要让系统能稳定地、可重复地、规模化地解决问题。两者的思维模式完全不同。前者关注”能不能得到好结果”,后者关注”系统能不能持续产出合格的结果”。

误区五:忽视评估和安全

很多人做 AI 应用只关注”能跑起来”,完全不考虑输出质量和安全风险。这就像做一个网站不考虑安全和测试一样危险。在企业场景中,一次幻觉(模型编造错误信息)或者一次数据泄露,就可能造成严重后果。评估层和安全层应该从一开始就纳入设计,而不是事后补充。

延伸思考

今天的全景图为后续所有内容提供了框架。明天的 LLM 原理学习,对应的是模型层的深度理解。后天的 Prompt 工程,对应的是模型调用质量的优化。后续的 RAG、Workflow、Agent,分别对应知识层、流程层和动态流程层的具体实现。

从工程视角看,AI 应用开发与传统软件开发最大的区别在于”不确定性管理”。传统软件的行为是确定的,测试用例可以覆盖所有场景。AI 应用的行为有随机性,你无法穷举所有可能的输出。这意味着你需要一种不同的工程思维:不是追求 100% 的确定性,而是建立一套机制让系统在不确定性下依然可控——通过评估持续监控质量,通过安全层过滤风险,通过重试和降级保证可用性。

从商业视角看,理解 AI 应用开发的全景图,能帮你快速判断一个”AI 需求”的真实复杂度。客户说”我要一个 AI 助手”,你需要在一分钟内判断:这是一个 Chatbot 级别的需求,还是一个 RAG 级别的需求,还是一个 Agent 级别的需求?不同级别对应不同的技术方案、开发周期和报价。这个判断能力直接决定了你能不能把 AI 能力变成可交付的服务。

从个人成长视角看,这份全景图是你学习的路线图。你不需要一次性掌握所有模块,但你需要知道每个模块的存在和它解决的问题。当你遇到具体问题时,你知道该往哪个方向深入。

自测问题

  1. 用自己的话解释 AI、机器学习、深度学习、大模型、Agent 的层级关系。它们之间是什么包含关系?

  2. Chatbot 和 RAG 的核心区别是什么?什么场景下必须用 RAG 而不是 Chatbot?

  3. Workflow 和 Agent 的核心区别是什么?举一个适合用 Workflow 的场景和一个适合用 Agent 的场景。

  4. 列举 AI 应用系统的九大模块,并说明每个模块解决什么问题。

  5. 为什么说 Prompt 不是 AI 应用的全部?至少给出三个理由。

  6. 一个企业想做一个”员工可以问公司政策的 AI 助手”,这个需求最适合用哪种架构?为什么?

  7. 在九大模块中,哪个模块负责处理”模型不知道最新信息”这个问题?

  8. 模型的不确定性给 AI 应用开发带来了哪些挑战?至少说出两个具体的工程问题。

  9. 如果一个客户说”我想让 AI 自动帮我分析每天的生产数据并生成报告”,你会推荐哪种架构?这个系统至少需要哪几个模块?

  10. “使用 AI”和”开发 AI 应用”的本质区别是什么?为什么这个区别很重要?

关键词

  • AI(人工智能):让机器表现出智能行为的技术的总称
  • ML(机器学习):让机器从数据中自动学习规律的方法
  • DL(深度学习):使用多层神经网络学习复杂数据模式的技术
  • LLM(大语言模型):用海量文本训练的超大规模语言生成模型
  • Agent(智能体):能自主规划、使用工具、执行任务的大模型应用形态
  • Chatbot(聊天机器人):基于对话交互的最基础 AI 应用
  • RAG(检索增强生成):结合外部知识库检索的 AI 问答架构
  • Workflow(工作流):按固定流程编排多个步骤的自动化方式
  • Multi-Agent(多智能体):多个专业 Agent 协作完成复杂任务的架构
  • Prompt:用户输入给大模型的指令文本
  • Token:大模型处理文本的最小单位,约等于 0.75 个英文单词或 0.5 个汉字
  • Hallucination(幻觉):大模型编造看似合理但实际错误的信息的现象
  • Context Window(上下文窗口):大模型单次能处理的最大文本长度
  • Embedding(向量化):把文本转换为数学向量的过程,用于语义检索