AI的一些名词,希望有所帮助

2026-04-11 08:291阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

AI常见名词

一、大模型

1.LLM

LLMLarge Language Model(大型语言模型)的缩写

image-20260402192117025865×170 27.5 KB

现代 LLM 几乎都建立在 Transformer 架构之上,核心机制是 Attention(注意力机制),让模型在生成每个词时能"关注"到上下文中最相关的部分

常见产品

image-20260402192831483642×261 13.9 KB

2.Token

LLM 不是以"字"或"词"为单位处理文本的,而是以 Token 为单位。Token 是模型能识别的最小文本单元,介于字符和单词之间

image-20260402193044026950×304 22.1 KB

二、上下文

1.Context

LLM 里,Context 就是模型在生成回答时能"看到"的所有信息。每次调用模型,你塞给它的全部内容——都叫做 Context

image-20260402194305999966×534 39.5 KB

2.Context Window

上下文窗口,这是 Context 的容量上限,以 token 数衡量:

image-20260402194510009761×210 7.14 KB

200K token 大概能装下一整本长篇小说,或者几千行代码

超出上限 早期内容会被截断丢弃,模型就真的"忘了"

三、常见外挂

1.Prompt

Prompt 就是你发给 AI 模型的输入文本,用来引导它生成你想要的输出

可以把大语言模型想象成一个极其博学但没有主动意识的"函数"

输入(Prompt) → [LLM] → 输出(Response)

你给什么输入,它就根据输入预测最合适的续写内容。所以 Prompt 的质量直接决定输出质量

image-20260402194843083952×372 37.9 KB

2.Tool

Tool 是给 AI 模型扩展能力的机制,让它不只是"说话",还能执行操作、获取外部数据

LLM 本身有两大局限:

  • 知识有截止日期,不知道实时信息
  • 只能输出文本,无法直接操作系统

image-20260402195053575969×400 15.8 KB

具体运行流程

image-202604021953354991250×723 126 KB

3.MCP

(Model Context Protocol)MCP 是一套开放标准协议,让 AI 模型能够以统一的方式连接各种外部工具和数据源,由 Anthropic 提出并开源

image-20260402195620458890×165 18.2 KB

传统缺点

App A 想用 GitHub → 自己写 GitHub Tool App B 想用 GitHub → 又自己写一遍 App C 想用 GitHub → 再写一遍...

image-202604021957435961303×510 20.5 KB

4.Agent

Agent 是能够自主思考、规划、并连续执行多步操作来完成目标的 AI 系统

image-20260402200516821945×311 19.1 KB

Agent 的三个核心能力

┌─────────────────────────────────────────┐ │ Agent │ │ │ │ 🧠 规划能力 把大目标拆成小步骤 │ │ 🛠️ 工具使用 调用 Tool / MCP 执行操作 │ │ 💾 记忆管理 记住上下文和中间结果 │ └─────────────────────────────────────────┘

本质上就是这样

image-20260402200806476541×228 10.7 KB

5.Skill

SKILL 是一套给 Claude 看的"最佳实践说明书",告诉它在完成特定类型任务时该怎么做、用什么库、注意什么坑

Claude 虽然什么都懂一点,但在具体任务上(比如生成 .docx.pptx)往往需要:

  • 知道用哪个 Python 库
  • 知道正确的代码模板
  • 避免已知的坑(比如 pip 需要加 --break-system-packages

这些经验靠"试错积累"出来,写进 SKILL.md 文件里,Claude 每次执行前先读,就能直接用最优方案

image-20260402201047916689×307 9.2 KB

本质就是一个 Markdown 文件,里面包含

# PPTX Skill ## 使用的库 python-pptx >= 0.6.21 ## 安装方式 pip install python-pptx --break-system-packages ## 基础模板 [代码示例] ## 注意事项 - 字体路径在 Linux 下是 xxx - 图片插入需要先转换格式 - 已知 bug:xxx 要这样绕过

具体关系

image-20260402201436370520×139 5.59 KB

网友解答:
--【壹】--:

skill会占用上下文的token么 即开启一次回话后在一开始添加. 然后超过上下文就没了? 论坛里一直看到说有些agent给的skill或者rule 老是不听话


--【贰】--:

感谢分享!学习学习!


--【叁】--:

harness 是开发流程,从ai遵循这套规范吗?


--【肆】--:

感谢佬的分享


--【伍】--:

感谢分享


--【陆】--:

我去,好主意


--【柒】--:

感谢佬的分享,讲的很好,非常适合给想了解的人介绍;


--【捌】--:

是的,会占用。 模型是不具备长久记忆的,它每一次回答你,都是在对当前的“所有上下文”进行重新阅读和计算。写在 Agent 里的 Skill、人设、规则,本质上就是一段文本,它们会实打实地占据模型总上下文窗口的 Token 额度
现在绝大多数成熟的 Agent 平台(包括主流 API 的 System Prompt 功能),都会把 Skill 作为“系统级提示词”永久固定在最前面。 它的运作逻辑是:每次你发送新消息时,后台都会把 【固定的 Skill + 截断后的最近聊天记录 + 你的新问题】 打包发给模型。 结果就是: Skill 永远不会消失,但它永远都在占用你的 Token 额度。如果你的 Skill 占了 2000 个 Token,那么模型每次留给“聊天记录”的可用空间就永久少了 2000 个


--【玖】--: chuan:

Token

词元, 台湾作符元


--【拾】--:

md文件,好好好


--【拾壹】--:

其实是想像佬请教一下记笔记的方式,总感觉我这么写不容易回顾


--【拾贰】--:

神经网络等等嘛,好的好的


--【拾叁】--:

感觉可以放到文档共建区域去大家一起完善()


--【拾肆】--:

感谢佬友分享,感觉还可以加上一些AI黑话啥的


--【拾伍】--:

L站作为作者,出一本人工智能的书


--【拾陆】--:

写成md文件方便查找


--【拾柒】--:

很有用,感谢


--【拾捌】--:

感谢佬友!非常全面!

问题描述:

AI常见名词

一、大模型

1.LLM

LLMLarge Language Model(大型语言模型)的缩写

image-20260402192117025865×170 27.5 KB

现代 LLM 几乎都建立在 Transformer 架构之上,核心机制是 Attention(注意力机制),让模型在生成每个词时能"关注"到上下文中最相关的部分

常见产品

image-20260402192831483642×261 13.9 KB

2.Token

LLM 不是以"字"或"词"为单位处理文本的,而是以 Token 为单位。Token 是模型能识别的最小文本单元,介于字符和单词之间

image-20260402193044026950×304 22.1 KB

二、上下文

1.Context

LLM 里,Context 就是模型在生成回答时能"看到"的所有信息。每次调用模型,你塞给它的全部内容——都叫做 Context

image-20260402194305999966×534 39.5 KB

2.Context Window

上下文窗口,这是 Context 的容量上限,以 token 数衡量:

image-20260402194510009761×210 7.14 KB

200K token 大概能装下一整本长篇小说,或者几千行代码

超出上限 早期内容会被截断丢弃,模型就真的"忘了"

三、常见外挂

1.Prompt

Prompt 就是你发给 AI 模型的输入文本,用来引导它生成你想要的输出

可以把大语言模型想象成一个极其博学但没有主动意识的"函数"

输入(Prompt) → [LLM] → 输出(Response)

你给什么输入,它就根据输入预测最合适的续写内容。所以 Prompt 的质量直接决定输出质量

image-20260402194843083952×372 37.9 KB

2.Tool

Tool 是给 AI 模型扩展能力的机制,让它不只是"说话",还能执行操作、获取外部数据

LLM 本身有两大局限:

  • 知识有截止日期,不知道实时信息
  • 只能输出文本,无法直接操作系统

image-20260402195053575969×400 15.8 KB

具体运行流程

image-202604021953354991250×723 126 KB

3.MCP

(Model Context Protocol)MCP 是一套开放标准协议,让 AI 模型能够以统一的方式连接各种外部工具和数据源,由 Anthropic 提出并开源

image-20260402195620458890×165 18.2 KB

传统缺点

App A 想用 GitHub → 自己写 GitHub Tool App B 想用 GitHub → 又自己写一遍 App C 想用 GitHub → 再写一遍...

image-202604021957435961303×510 20.5 KB

4.Agent

Agent 是能够自主思考、规划、并连续执行多步操作来完成目标的 AI 系统

image-20260402200516821945×311 19.1 KB

Agent 的三个核心能力

┌─────────────────────────────────────────┐ │ Agent │ │ │ │ 🧠 规划能力 把大目标拆成小步骤 │ │ 🛠️ 工具使用 调用 Tool / MCP 执行操作 │ │ 💾 记忆管理 记住上下文和中间结果 │ └─────────────────────────────────────────┘

本质上就是这样

image-20260402200806476541×228 10.7 KB

5.Skill

SKILL 是一套给 Claude 看的"最佳实践说明书",告诉它在完成特定类型任务时该怎么做、用什么库、注意什么坑

Claude 虽然什么都懂一点,但在具体任务上(比如生成 .docx.pptx)往往需要:

  • 知道用哪个 Python 库
  • 知道正确的代码模板
  • 避免已知的坑(比如 pip 需要加 --break-system-packages

这些经验靠"试错积累"出来,写进 SKILL.md 文件里,Claude 每次执行前先读,就能直接用最优方案

image-20260402201047916689×307 9.2 KB

本质就是一个 Markdown 文件,里面包含

# PPTX Skill ## 使用的库 python-pptx >= 0.6.21 ## 安装方式 pip install python-pptx --break-system-packages ## 基础模板 [代码示例] ## 注意事项 - 字体路径在 Linux 下是 xxx - 图片插入需要先转换格式 - 已知 bug:xxx 要这样绕过

具体关系

image-20260402201436370520×139 5.59 KB

网友解答:
--【壹】--:

skill会占用上下文的token么 即开启一次回话后在一开始添加. 然后超过上下文就没了? 论坛里一直看到说有些agent给的skill或者rule 老是不听话


--【贰】--:

感谢分享!学习学习!


--【叁】--:

harness 是开发流程,从ai遵循这套规范吗?


--【肆】--:

感谢佬的分享


--【伍】--:

感谢分享


--【陆】--:

我去,好主意


--【柒】--:

感谢佬的分享,讲的很好,非常适合给想了解的人介绍;


--【捌】--:

是的,会占用。 模型是不具备长久记忆的,它每一次回答你,都是在对当前的“所有上下文”进行重新阅读和计算。写在 Agent 里的 Skill、人设、规则,本质上就是一段文本,它们会实打实地占据模型总上下文窗口的 Token 额度
现在绝大多数成熟的 Agent 平台(包括主流 API 的 System Prompt 功能),都会把 Skill 作为“系统级提示词”永久固定在最前面。 它的运作逻辑是:每次你发送新消息时,后台都会把 【固定的 Skill + 截断后的最近聊天记录 + 你的新问题】 打包发给模型。 结果就是: Skill 永远不会消失,但它永远都在占用你的 Token 额度。如果你的 Skill 占了 2000 个 Token,那么模型每次留给“聊天记录”的可用空间就永久少了 2000 个


--【玖】--: chuan:

Token

词元, 台湾作符元


--【拾】--:

md文件,好好好


--【拾壹】--:

其实是想像佬请教一下记笔记的方式,总感觉我这么写不容易回顾


--【拾贰】--:

神经网络等等嘛,好的好的


--【拾叁】--:

感觉可以放到文档共建区域去大家一起完善()


--【拾肆】--:

感谢佬友分享,感觉还可以加上一些AI黑话啥的


--【拾伍】--:

L站作为作者,出一本人工智能的书


--【拾陆】--:

写成md文件方便查找


--【拾柒】--:

很有用,感谢


--【拾捌】--:

感谢佬友!非常全面!