AI的一些名词,希望有所帮助
- 内容介绍
- 文章标签
- 相关推荐
AI常见名词
一、大模型
1.LLM
LLM 是 Large Language Model(大型语言模型)的缩写
image-20260402192117025865×170 27.5 KB
现代 LLM 几乎都建立在 Transformer 架构之上,核心机制是 Attention(注意力机制),让模型在生成每个词时能"关注"到上下文中最相关的部分
常见产品
image-20260402192831483642×261 13.9 KB
2.Token
LLM 不是以"字"或"词"为单位处理文本的,而是以 Token 为单位。Token 是模型能识别的最小文本单元,介于字符和单词之间
image-20260402193044026950×304 22.1 KB
二、上下文
1.Context
在 LLM 里,Context 就是模型在生成回答时能"看到"的所有信息。每次调用模型,你塞给它的全部内容——都叫做 Context
image-20260402194305999966×534 39.5 KB
2.Context Window
上下文窗口,这是 Context 的容量上限,以 token 数衡量:
image-20260402194510009761×210 7.14 KB
200K token 大概能装下一整本长篇小说,或者几千行代码
超出上限 早期内容会被截断丢弃,模型就真的"忘了"
三、常见外挂
1.Prompt
Prompt 就是你发给 AI 模型的输入文本,用来引导它生成你想要的输出
可以把大语言模型想象成一个极其博学但没有主动意识的"函数":
输入(Prompt) → [LLM] → 输出(Response)
你给什么输入,它就根据输入预测最合适的续写内容。所以 Prompt 的质量直接决定输出质量
image-20260402194843083952×372 37.9 KB
2.Tool
Tool 是给 AI 模型扩展能力的机制,让它不只是"说话",还能执行操作、获取外部数据
LLM 本身有两大局限:
- 知识有截止日期,不知道实时信息
- 只能输出文本,无法直接操作系统
image-20260402195053575969×400 15.8 KB
具体运行流程
image-202604021953354991250×723 126 KB
3.MCP
(Model Context Protocol)MCP 是一套开放标准协议,让 AI 模型能够以统一的方式连接各种外部工具和数据源,由 Anthropic 提出并开源
image-20260402195620458890×165 18.2 KB
传统缺点
App A 想用 GitHub → 自己写 GitHub Tool
App B 想用 GitHub → 又自己写一遍
App C 想用 GitHub → 再写一遍...
image-202604021957435961303×510 20.5 KB
4.Agent
Agent 是能够自主思考、规划、并连续执行多步操作来完成目标的 AI 系统
image-20260402200516821945×311 19.1 KB
Agent 的三个核心能力
┌─────────────────────────────────────────┐
│ Agent │
│ │
│ 🧠 规划能力 把大目标拆成小步骤 │
│ 🛠️ 工具使用 调用 Tool / MCP 执行操作 │
│ 💾 记忆管理 记住上下文和中间结果 │
└─────────────────────────────────────────┘
本质上就是这样
image-20260402200806476541×228 10.7 KB
5.Skill
SKILL 是一套给 Claude 看的"最佳实践说明书",告诉它在完成特定类型任务时该怎么做、用什么库、注意什么坑
Claude 虽然什么都懂一点,但在具体任务上(比如生成 .docx、.pptx)往往需要:
- 知道用哪个 Python 库
- 知道正确的代码模板
- 避免已知的坑(比如 pip 需要加
--break-system-packages)
这些经验靠"试错积累"出来,写进 SKILL.md 文件里,Claude 每次执行前先读,就能直接用最优方案
image-20260402201047916689×307 9.2 KB
本质就是一个 Markdown 文件,里面包含
# PPTX Skill
## 使用的库
python-pptx >= 0.6.21
## 安装方式
pip install python-pptx --break-system-packages
## 基础模板
[代码示例]
## 注意事项
- 字体路径在 Linux 下是 xxx
- 图片插入需要先转换格式
- 已知 bug:xxx 要这样绕过
具体关系
image-20260402201436370520×139 5.59 KB
网友解答:--【壹】--:
skill会占用上下文的token么 即开启一次回话后在一开始添加. 然后超过上下文就没了? 论坛里一直看到说有些agent给的skill或者rule 老是不听话
--【贰】--:
感谢分享!学习学习!
--【叁】--:
harness 是开发流程,从ai遵循这套规范吗?
--【肆】--:
感谢佬的分享
--【伍】--:
感谢分享
--【陆】--:
我去,好主意
--【柒】--:
感谢佬的分享,讲的很好,非常适合给想了解的人介绍;
--【捌】--:
是的,会占用。 模型是不具备长久记忆的,它每一次回答你,都是在对当前的“所有上下文”进行重新阅读和计算。写在 Agent 里的 Skill、人设、规则,本质上就是一段文本,它们会实打实地占据模型总上下文窗口的 Token 额度
现在绝大多数成熟的 Agent 平台(包括主流 API 的 System Prompt 功能),都会把 Skill 作为“系统级提示词”永久固定在最前面。 它的运作逻辑是:每次你发送新消息时,后台都会把 【固定的 Skill + 截断后的最近聊天记录 + 你的新问题】 打包发给模型。 结果就是: Skill 永远不会消失,但它永远都在占用你的 Token 额度。如果你的 Skill 占了 2000 个 Token,那么模型每次留给“聊天记录”的可用空间就永久少了 2000 个
--【玖】--: chuan:
Token
词元, 台湾作符元
--【拾】--:
md文件,好好好
--【拾壹】--:
其实是想像佬请教一下记笔记的方式,总感觉我这么写不容易回顾
--【拾贰】--:
神经网络等等嘛,好的好的
--【拾叁】--:
感觉可以放到文档共建区域去大家一起完善()
--【拾肆】--:
感谢佬友分享,感觉还可以加上一些AI黑话啥的
--【拾伍】--:
L站作为作者,出一本人工智能的书
--【拾陆】--:
写成md文件方便查找
--【拾柒】--:
很有用,感谢
--【拾捌】--:
感谢佬友!非常全面!
AI常见名词
一、大模型
1.LLM
LLM 是 Large Language Model(大型语言模型)的缩写
image-20260402192117025865×170 27.5 KB
现代 LLM 几乎都建立在 Transformer 架构之上,核心机制是 Attention(注意力机制),让模型在生成每个词时能"关注"到上下文中最相关的部分
常见产品
image-20260402192831483642×261 13.9 KB
2.Token
LLM 不是以"字"或"词"为单位处理文本的,而是以 Token 为单位。Token 是模型能识别的最小文本单元,介于字符和单词之间
image-20260402193044026950×304 22.1 KB
二、上下文
1.Context
在 LLM 里,Context 就是模型在生成回答时能"看到"的所有信息。每次调用模型,你塞给它的全部内容——都叫做 Context
image-20260402194305999966×534 39.5 KB
2.Context Window
上下文窗口,这是 Context 的容量上限,以 token 数衡量:
image-20260402194510009761×210 7.14 KB
200K token 大概能装下一整本长篇小说,或者几千行代码
超出上限 早期内容会被截断丢弃,模型就真的"忘了"
三、常见外挂
1.Prompt
Prompt 就是你发给 AI 模型的输入文本,用来引导它生成你想要的输出
可以把大语言模型想象成一个极其博学但没有主动意识的"函数":
输入(Prompt) → [LLM] → 输出(Response)
你给什么输入,它就根据输入预测最合适的续写内容。所以 Prompt 的质量直接决定输出质量
image-20260402194843083952×372 37.9 KB
2.Tool
Tool 是给 AI 模型扩展能力的机制,让它不只是"说话",还能执行操作、获取外部数据
LLM 本身有两大局限:
- 知识有截止日期,不知道实时信息
- 只能输出文本,无法直接操作系统
image-20260402195053575969×400 15.8 KB
具体运行流程
image-202604021953354991250×723 126 KB
3.MCP
(Model Context Protocol)MCP 是一套开放标准协议,让 AI 模型能够以统一的方式连接各种外部工具和数据源,由 Anthropic 提出并开源
image-20260402195620458890×165 18.2 KB
传统缺点
App A 想用 GitHub → 自己写 GitHub Tool
App B 想用 GitHub → 又自己写一遍
App C 想用 GitHub → 再写一遍...
image-202604021957435961303×510 20.5 KB
4.Agent
Agent 是能够自主思考、规划、并连续执行多步操作来完成目标的 AI 系统
image-20260402200516821945×311 19.1 KB
Agent 的三个核心能力
┌─────────────────────────────────────────┐
│ Agent │
│ │
│ 🧠 规划能力 把大目标拆成小步骤 │
│ 🛠️ 工具使用 调用 Tool / MCP 执行操作 │
│ 💾 记忆管理 记住上下文和中间结果 │
└─────────────────────────────────────────┘
本质上就是这样
image-20260402200806476541×228 10.7 KB
5.Skill
SKILL 是一套给 Claude 看的"最佳实践说明书",告诉它在完成特定类型任务时该怎么做、用什么库、注意什么坑
Claude 虽然什么都懂一点,但在具体任务上(比如生成 .docx、.pptx)往往需要:
- 知道用哪个 Python 库
- 知道正确的代码模板
- 避免已知的坑(比如 pip 需要加
--break-system-packages)
这些经验靠"试错积累"出来,写进 SKILL.md 文件里,Claude 每次执行前先读,就能直接用最优方案
image-20260402201047916689×307 9.2 KB
本质就是一个 Markdown 文件,里面包含
# PPTX Skill
## 使用的库
python-pptx >= 0.6.21
## 安装方式
pip install python-pptx --break-system-packages
## 基础模板
[代码示例]
## 注意事项
- 字体路径在 Linux 下是 xxx
- 图片插入需要先转换格式
- 已知 bug:xxx 要这样绕过
具体关系
image-20260402201436370520×139 5.59 KB
网友解答:--【壹】--:
skill会占用上下文的token么 即开启一次回话后在一开始添加. 然后超过上下文就没了? 论坛里一直看到说有些agent给的skill或者rule 老是不听话
--【贰】--:
感谢分享!学习学习!
--【叁】--:
harness 是开发流程,从ai遵循这套规范吗?
--【肆】--:
感谢佬的分享
--【伍】--:
感谢分享
--【陆】--:
我去,好主意
--【柒】--:
感谢佬的分享,讲的很好,非常适合给想了解的人介绍;
--【捌】--:
是的,会占用。 模型是不具备长久记忆的,它每一次回答你,都是在对当前的“所有上下文”进行重新阅读和计算。写在 Agent 里的 Skill、人设、规则,本质上就是一段文本,它们会实打实地占据模型总上下文窗口的 Token 额度
现在绝大多数成熟的 Agent 平台(包括主流 API 的 System Prompt 功能),都会把 Skill 作为“系统级提示词”永久固定在最前面。 它的运作逻辑是:每次你发送新消息时,后台都会把 【固定的 Skill + 截断后的最近聊天记录 + 你的新问题】 打包发给模型。 结果就是: Skill 永远不会消失,但它永远都在占用你的 Token 额度。如果你的 Skill 占了 2000 个 Token,那么模型每次留给“聊天记录”的可用空间就永久少了 2000 个
--【玖】--: chuan:
Token
词元, 台湾作符元
--【拾】--:
md文件,好好好
--【拾壹】--:
其实是想像佬请教一下记笔记的方式,总感觉我这么写不容易回顾
--【拾贰】--:
神经网络等等嘛,好的好的
--【拾叁】--:
感觉可以放到文档共建区域去大家一起完善()
--【拾肆】--:
感谢佬友分享,感觉还可以加上一些AI黑话啥的
--【拾伍】--:
L站作为作者,出一本人工智能的书
--【拾陆】--:
写成md文件方便查找
--【拾柒】--:
很有用,感谢
--【拾捌】--:
感谢佬友!非常全面!

