【水】整理了部分大模型的官方API价格(更新日期:2026-03-02)
- 内容介绍
- 文章标签
- 相关推荐
汇总了一些国内外大语言模型(LLM)的 API 定价信息。仅供参考。
国内大模型
更新时间:2026-03-02
(单位统一为元/1M Tokens)
百度 (Baidu)
数据来源:百度智能云千帆大模型平台
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| ERNIE 5.0 (Thinking-Preview/Latest/Exp) |
6 (≤32k) 10 (>32k) |
24 (≤32k) 40 (>32k) |
|
| ERNIE X1.1 (ERNIE-X1.1-Preview) |
1 | 4 | 搜索增强: 0.004元/次 |
| ERNIE X1 Turbo (ERNIE-X1-Turbo-32K) |
1 | 4 | Batch调用半价 |
| ERNIE 4.5 Turbo (128K Preview/Latest) |
0.8 | 3.2 | 输入缓存命中: 0.2 搜索增强: 0.004元/次 |
阿里云 (Aliyun)
数据来源:阿里云百炼模型价格 | 上下文缓存说明
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| Qwen-Max (qwen3-max) |
2.5 (≤32k) 4 (≤128k) 7 (≤252k) |
10 (≤32k) 16 (≤128k) 28 (≤252k) |
Batch调用半价 输入缓存命中: 20%(隐式)/10%(显式) |
| Qwen-Plus (qwen3.5-plus) |
0.8 (≤128k) 2 (≤256k) 4 (≤1M) |
4.8 (≤128k) 12 (≤256k) 24 (≤1M) |
覆盖旧版 qwen-plus 系列 |
| Qwen-Flash (qwen3.5-flash) |
0.2 (≤128k) 0.8 (≤256k) 1.2 (≤1M) |
2 (≤128k) 8 (≤256k) 12 (≤1M) |
Batch调用半价 |
智谱AI (ZhipuAI)
数据来源:智谱AI开放平台
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| GLM-5 | 4 (≤32k) 6 (>32k) |
18 (≤32k) 22 (>32k) |
输入缓存命中: 1 / 1.5 |
| GLM-5-Code | 6 (≤32k) 8 (>32k) |
28 (≤32k) 32 (>32k) |
输入缓存命中: 1.5 / 2 |
| GLM-4.7 | 2 (≤32k, 短输出) 3 (≤32k, 长输出) 4 (>32k) |
8 (≤32k, 短输出) 14 (≤32k, 长输出) 16 (>32k) |
短输出: <0.2k 长输出: ≥0.2k 输入缓存命中: 0.4/0.6/0.8 |
| GLM-4.7-FlashX | 0.5 | 3 | 输入缓存命中: 0.1 |
| GLM-4.7-Flash | 免费 | 免费 | 输入缓存命中: 免费 |
DeepSeek
数据来源:DeepSeek API Docs
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| DeepSeek-V3.2 (deepseek-chat/deepseek-reasoner) |
2 | 3 | 输入缓存命中: 0.2 |
火山引擎 (Volcengine)
数据来源:火山方舟大模型服务平台
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| doubao-seed-2.0-pro | 3.2 (≤32k) 4.8 (32k-128k] 9.6 (128k-256k] |
16 (≤32k) 24 (32k-128k] 48 (128k-256k] |
输入缓存命中: 0.64/0.96/1.92 缓存存储: 0.017元/1M/小时 |
| doubao-seed-2.0-lite | 0.6 (≤32k) 0.9 (32k-128k] 1.8 (128k-256k] |
3.6 (≤32k) 5.4 (32k-128k] 10.8 (128k-256k] |
输入缓存命中: 0.12/0.18/0.36 缓存存储: 0.017元/1M/小时 |
| doubao-seed-2.0-mini | 0.2 (≤32k) 0.4 (32k-128k] 0.8 (128k-256k] |
2 (≤32k) 4 (32k-128k] 8 (128k-256k] |
输入缓存命中: 0.04/0.08/0.16 缓存存储: 0.017元/1M/小时 |
| doubao-seed-2.0-code | 3.2 (≤32k) 4.8 (32k-128k] 9.6 (128k-256k] |
16 (≤32k) 24 (32k-128k] 48 (128k-256k] |
输入缓存命中: 0.64/0.96/1.92 缓存存储: 0.017元/1M/小时 |
MiniMax
数据来源:MiniMax 开放平台
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| MiniMax-M2.5 | 2.1 | 8.4 | 输入缓存命中: 0.21 缓存写入: 2.625 |
| MiniMax-M2.5-highspeed | 4.2 | 16.8 | 输入缓存命中: 0.21 缓存写入: 2.625 |
月之暗面 (Moonshot AI)
数据来源:Moonshot AI 开放平台
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| kimi-k2.5 | 4 | 21 | 缓存命中: 0.7 |
| kimi-k2 (0905/0711/thinking) |
4 | 16 | 缓存命中: 1 |
| kimi-k2-turbo (turbo/thinking-turbo) |
8 | 58 | 缓存命中: 1 |
| moonshot-v1-8k | 2 | 10 | |
| moonshot-v1-32k | 5 | 20 | |
| moonshot-v1-128k | 10 | 30 |
国外大模型
更新时间:2026-03-02
(单位统一为美元/1M Tokens)
OpenAI
数据来源:OpenAI Pricing (Standard)
| 模型名称 | 输入价格 ($/1M Tokens) | 输出价格 ($/1M Tokens) | 说明 |
|---|---|---|---|
| gpt-5.3-codex | 1.75 | 14.00 | 缓存命中: 0.175 |
| gpt-5.2 | 1.75 | 14.00 | 缓存命中: 0.175 |
| gpt-5.2-chat-latest | 1.75 | 14.00 | 缓存命中: 0.175 |
| gpt-5.2-codex | 1.75 | 14.00 | 缓存命中: 0.175 |
| gpt-5.2-pro | 21.00 | 168.00 | |
| gpt-5.1-chat-latest | 1.25 | 10.00 | 缓存命中: 0.125 |
| gpt-5.1-codex-max | 1.25 | 10.00 | 缓存命中: 0.125 |
| gpt-5-chat-latest | 1.25 | 10.00 | 缓存命中: 0.125 |
| gpt-4o | 2.50 | 10.00 | 缓存命中: 1.25 |
| gpt-realtime | 4.00 | 16.00 | 文本 token 价格;缓存命中: 0.40 |
Anthropic (Claude)
数据来源:Claude Pricing
| 模型名称 | 输入价格 ($/1M Tokens) | 输出价格 ($/1M Tokens) | 说明 |
|---|---|---|---|
| Claude Opus 4.5/4.6 | 5.00 (≤200K) 10.00 (>200K) |
25.00 (≤200K) 37.50 (>200K) |
缓存写入: 6.25/10.00 (5m/1h) 输入缓存命中: 0.50 / 1.00 |
| Claude Sonnet 4.5/4.6 | 3.00 | 15.00 | 缓存写入: 3.75/6.00 (5m/1h) 输入缓存命中: 0.30 |
| Claude Haiku 4.5 | 1.00 | 5.00 | 缓存写入: 1.25/2.00 (5m/1h) 输入缓存命中: 0.10 |
备注:1M 长上下文(Beta)仅适用于 Claude Opus 4.6、Sonnet 4.5、Sonnet 4。
当输入 token 总量超过 200K 时,按长上下文高档费率计费。
详情参阅 Claude Pricing。
Google (Gemini)
数据来源:Gemini API Pricing
| 模型名称 | 输入价格 ($/1M Tokens) | 输出价格 ($/1M Tokens) | 说明 |
|---|---|---|---|
| Gemini 3.1 Pro (preview) |
2.00 (≤200k) 4.00 (>200k) |
12.00 (≤200k) 18.00 (>200k) |
输入缓存命中: 0.20 / 0.40 缓存存储: 4.50/1M/小时 |
| Gemini 3.1 Flash Image (preview) |
0.25 (文本/图片) | 1.50 (文本/思考) 60.00 (图片) |
面向图像生成的轻量模型 |
| Gemini 3 Flash (preview) |
0.50 (文本/图片/视频) 1.00 (音频) |
3.00 | 输入缓存命中: 0.05 (文本/图片/视频) / 0.10 (音频) 缓存存储: 1.00/1M/小时 |
| Gemini 2.5 Pro | 1.25 (≤200k) 2.50 (>200k) |
10.00 (≤200k) 15.00 (>200k) |
输入缓存命中: 0.125 / 0.25 缓存存储: 4.50/1M/小时 |
| Gemini 2.5 Flash | 0.30 (文本/图片/视频) 1.00 (音频) |
2.50 | 输入缓存命中: 0.03 (文本/图片/视频) / 0.10 (音频) 缓存存储: 1.00/1M/小时 |
| Gemini 2.5 Flash-Lite | 0.10 (文本/图片/视频) 0.30 (音频) |
0.40 | 输入缓存命中: 0.01 (文本/图片/视频) / 0.03 (音频) 缓存存储: 1.00/1M/小时 |
--【壹】--:
佬友该换电脑了
这网站就很简单的load一个几百KB的json并渲染出来
--【贰】--:
为什么不来 这里 看呢
--【叁】--:
谢谢佬
很有用!
--【肆】--:
为什么不来 https://models.dev 看呢
同样,佬友有空的话可以给他们repo提pr更新数据 @Xtower
--【伍】--:
感谢总结
--【陆】--:
感谢佬的分享
--【柒】--:
很简单,因为我在整理这个之前没搜到,hhh
--【捌】--:
确实,这里没整理官方套餐以及三方渠道(比如火山的K2,因为太多了)
主要是感觉佬友都入站了应该有自己の方法可以合法或不合法的用上
--【玖】--:
感谢总结
--【拾】--:
这网站直接把我浏览器干崩了
--【拾壹】--:
感觉不太需要,这个网站够全了(除了手机端阅读体验有点差强人意)()
--【拾贰】--:
deepseek可真便宜啊,难怪gpt5.2建议我用deepseek
--【拾叁】--:
感谢佬分享
官方的还是太贵了
--【拾肆】--:
2026-02-12 已更新GLM-5与GLM-5-Code
--【拾伍】--:
是的是的
站里大家每天估计都是公益站+自己反代的站起来蹬
--【拾陆】--:
感谢佬,正好要做模型用量计算缺模型价格
汇总了一些国内外大语言模型(LLM)的 API 定价信息。仅供参考。
国内大模型
更新时间:2026-03-02
(单位统一为元/1M Tokens)
百度 (Baidu)
数据来源:百度智能云千帆大模型平台
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| ERNIE 5.0 (Thinking-Preview/Latest/Exp) |
6 (≤32k) 10 (>32k) |
24 (≤32k) 40 (>32k) |
|
| ERNIE X1.1 (ERNIE-X1.1-Preview) |
1 | 4 | 搜索增强: 0.004元/次 |
| ERNIE X1 Turbo (ERNIE-X1-Turbo-32K) |
1 | 4 | Batch调用半价 |
| ERNIE 4.5 Turbo (128K Preview/Latest) |
0.8 | 3.2 | 输入缓存命中: 0.2 搜索增强: 0.004元/次 |
阿里云 (Aliyun)
数据来源:阿里云百炼模型价格 | 上下文缓存说明
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| Qwen-Max (qwen3-max) |
2.5 (≤32k) 4 (≤128k) 7 (≤252k) |
10 (≤32k) 16 (≤128k) 28 (≤252k) |
Batch调用半价 输入缓存命中: 20%(隐式)/10%(显式) |
| Qwen-Plus (qwen3.5-plus) |
0.8 (≤128k) 2 (≤256k) 4 (≤1M) |
4.8 (≤128k) 12 (≤256k) 24 (≤1M) |
覆盖旧版 qwen-plus 系列 |
| Qwen-Flash (qwen3.5-flash) |
0.2 (≤128k) 0.8 (≤256k) 1.2 (≤1M) |
2 (≤128k) 8 (≤256k) 12 (≤1M) |
Batch调用半价 |
智谱AI (ZhipuAI)
数据来源:智谱AI开放平台
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| GLM-5 | 4 (≤32k) 6 (>32k) |
18 (≤32k) 22 (>32k) |
输入缓存命中: 1 / 1.5 |
| GLM-5-Code | 6 (≤32k) 8 (>32k) |
28 (≤32k) 32 (>32k) |
输入缓存命中: 1.5 / 2 |
| GLM-4.7 | 2 (≤32k, 短输出) 3 (≤32k, 长输出) 4 (>32k) |
8 (≤32k, 短输出) 14 (≤32k, 长输出) 16 (>32k) |
短输出: <0.2k 长输出: ≥0.2k 输入缓存命中: 0.4/0.6/0.8 |
| GLM-4.7-FlashX | 0.5 | 3 | 输入缓存命中: 0.1 |
| GLM-4.7-Flash | 免费 | 免费 | 输入缓存命中: 免费 |
DeepSeek
数据来源:DeepSeek API Docs
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| DeepSeek-V3.2 (deepseek-chat/deepseek-reasoner) |
2 | 3 | 输入缓存命中: 0.2 |
火山引擎 (Volcengine)
数据来源:火山方舟大模型服务平台
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| doubao-seed-2.0-pro | 3.2 (≤32k) 4.8 (32k-128k] 9.6 (128k-256k] |
16 (≤32k) 24 (32k-128k] 48 (128k-256k] |
输入缓存命中: 0.64/0.96/1.92 缓存存储: 0.017元/1M/小时 |
| doubao-seed-2.0-lite | 0.6 (≤32k) 0.9 (32k-128k] 1.8 (128k-256k] |
3.6 (≤32k) 5.4 (32k-128k] 10.8 (128k-256k] |
输入缓存命中: 0.12/0.18/0.36 缓存存储: 0.017元/1M/小时 |
| doubao-seed-2.0-mini | 0.2 (≤32k) 0.4 (32k-128k] 0.8 (128k-256k] |
2 (≤32k) 4 (32k-128k] 8 (128k-256k] |
输入缓存命中: 0.04/0.08/0.16 缓存存储: 0.017元/1M/小时 |
| doubao-seed-2.0-code | 3.2 (≤32k) 4.8 (32k-128k] 9.6 (128k-256k] |
16 (≤32k) 24 (32k-128k] 48 (128k-256k] |
输入缓存命中: 0.64/0.96/1.92 缓存存储: 0.017元/1M/小时 |
MiniMax
数据来源:MiniMax 开放平台
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| MiniMax-M2.5 | 2.1 | 8.4 | 输入缓存命中: 0.21 缓存写入: 2.625 |
| MiniMax-M2.5-highspeed | 4.2 | 16.8 | 输入缓存命中: 0.21 缓存写入: 2.625 |
月之暗面 (Moonshot AI)
数据来源:Moonshot AI 开放平台
| 模型名称 | 输入价格 (元/1M Tokens) | 输出价格 (元/1M Tokens) | 说明 |
|---|---|---|---|
| kimi-k2.5 | 4 | 21 | 缓存命中: 0.7 |
| kimi-k2 (0905/0711/thinking) |
4 | 16 | 缓存命中: 1 |
| kimi-k2-turbo (turbo/thinking-turbo) |
8 | 58 | 缓存命中: 1 |
| moonshot-v1-8k | 2 | 10 | |
| moonshot-v1-32k | 5 | 20 | |
| moonshot-v1-128k | 10 | 30 |
国外大模型
更新时间:2026-03-02
(单位统一为美元/1M Tokens)
OpenAI
数据来源:OpenAI Pricing (Standard)
| 模型名称 | 输入价格 ($/1M Tokens) | 输出价格 ($/1M Tokens) | 说明 |
|---|---|---|---|
| gpt-5.3-codex | 1.75 | 14.00 | 缓存命中: 0.175 |
| gpt-5.2 | 1.75 | 14.00 | 缓存命中: 0.175 |
| gpt-5.2-chat-latest | 1.75 | 14.00 | 缓存命中: 0.175 |
| gpt-5.2-codex | 1.75 | 14.00 | 缓存命中: 0.175 |
| gpt-5.2-pro | 21.00 | 168.00 | |
| gpt-5.1-chat-latest | 1.25 | 10.00 | 缓存命中: 0.125 |
| gpt-5.1-codex-max | 1.25 | 10.00 | 缓存命中: 0.125 |
| gpt-5-chat-latest | 1.25 | 10.00 | 缓存命中: 0.125 |
| gpt-4o | 2.50 | 10.00 | 缓存命中: 1.25 |
| gpt-realtime | 4.00 | 16.00 | 文本 token 价格;缓存命中: 0.40 |
Anthropic (Claude)
数据来源:Claude Pricing
| 模型名称 | 输入价格 ($/1M Tokens) | 输出价格 ($/1M Tokens) | 说明 |
|---|---|---|---|
| Claude Opus 4.5/4.6 | 5.00 (≤200K) 10.00 (>200K) |
25.00 (≤200K) 37.50 (>200K) |
缓存写入: 6.25/10.00 (5m/1h) 输入缓存命中: 0.50 / 1.00 |
| Claude Sonnet 4.5/4.6 | 3.00 | 15.00 | 缓存写入: 3.75/6.00 (5m/1h) 输入缓存命中: 0.30 |
| Claude Haiku 4.5 | 1.00 | 5.00 | 缓存写入: 1.25/2.00 (5m/1h) 输入缓存命中: 0.10 |
备注:1M 长上下文(Beta)仅适用于 Claude Opus 4.6、Sonnet 4.5、Sonnet 4。
当输入 token 总量超过 200K 时,按长上下文高档费率计费。
详情参阅 Claude Pricing。
Google (Gemini)
数据来源:Gemini API Pricing
| 模型名称 | 输入价格 ($/1M Tokens) | 输出价格 ($/1M Tokens) | 说明 |
|---|---|---|---|
| Gemini 3.1 Pro (preview) |
2.00 (≤200k) 4.00 (>200k) |
12.00 (≤200k) 18.00 (>200k) |
输入缓存命中: 0.20 / 0.40 缓存存储: 4.50/1M/小时 |
| Gemini 3.1 Flash Image (preview) |
0.25 (文本/图片) | 1.50 (文本/思考) 60.00 (图片) |
面向图像生成的轻量模型 |
| Gemini 3 Flash (preview) |
0.50 (文本/图片/视频) 1.00 (音频) |
3.00 | 输入缓存命中: 0.05 (文本/图片/视频) / 0.10 (音频) 缓存存储: 1.00/1M/小时 |
| Gemini 2.5 Pro | 1.25 (≤200k) 2.50 (>200k) |
10.00 (≤200k) 15.00 (>200k) |
输入缓存命中: 0.125 / 0.25 缓存存储: 4.50/1M/小时 |
| Gemini 2.5 Flash | 0.30 (文本/图片/视频) 1.00 (音频) |
2.50 | 输入缓存命中: 0.03 (文本/图片/视频) / 0.10 (音频) 缓存存储: 1.00/1M/小时 |
| Gemini 2.5 Flash-Lite | 0.10 (文本/图片/视频) 0.30 (音频) |
0.40 | 输入缓存命中: 0.01 (文本/图片/视频) / 0.03 (音频) 缓存存储: 1.00/1M/小时 |
--【壹】--:
佬友该换电脑了
这网站就很简单的load一个几百KB的json并渲染出来
--【贰】--:
为什么不来 这里 看呢
--【叁】--:
谢谢佬
很有用!
--【肆】--:
为什么不来 https://models.dev 看呢
同样,佬友有空的话可以给他们repo提pr更新数据 @Xtower
--【伍】--:
感谢总结
--【陆】--:
感谢佬的分享
--【柒】--:
很简单,因为我在整理这个之前没搜到,hhh
--【捌】--:
确实,这里没整理官方套餐以及三方渠道(比如火山的K2,因为太多了)
主要是感觉佬友都入站了应该有自己の方法可以合法或不合法的用上
--【玖】--:
感谢总结
--【拾】--:
这网站直接把我浏览器干崩了
--【拾壹】--:
感觉不太需要,这个网站够全了(除了手机端阅读体验有点差强人意)()
--【拾贰】--:
deepseek可真便宜啊,难怪gpt5.2建议我用deepseek
--【拾叁】--:
感谢佬分享
官方的还是太贵了
--【拾肆】--:
2026-02-12 已更新GLM-5与GLM-5-Code
--【拾伍】--:
是的是的
站里大家每天估计都是公益站+自己反代的站起来蹬
--【拾陆】--:
感谢佬,正好要做模型用量计算缺模型价格

