我发现一个简单的问题,但是很多AI回答错误
- 内容介绍
- 文章标签
- 相关推荐
题目
```caddyfile
test.example.com {
@authed {
header Authorization "Bearer 123123123"
}
import log test.example.com
import common
reverse_proxy @authed 127.0.0.1:3003
respond 401 {
body "Unauthorized"
}
}
```
```shell
curl -X GET "https://test.example.com" \
-H "Authorization: Bearer 123123123"
Unauthorized
```
为什么 Unauthorized?
回答结果
| 模型名称 | reasoning effort | 回答正确与否 | 耗时 |
|---|---|---|---|
| deepseek v4 flash | max | 1.2m | |
| deepseek v4 pro | max | 2m | |
| glm-5.1 | 3m | ||
| gpt-5.4 | xhigh | 18s | |
| kimi-k2.6 | 7m |
因为我用的 ollama 还没上 deepseek v4 pro,所以用 web 端测试
ollama 重新上线了 ds v4 pro,测试仍然不能答出来
正确答案
respond 不加 matcher 会匹配所有请求,并且优先于 reverse_proxy
观察思考内容
发现大部分模型都被这两行配置硬控住,反复思考,导致耗时很长。
import log test.example.com
import common
网友解答:
--【壹】--:
就是之前版本有问题所以才下线调整的,刚刚又上线了。
--【贰】--:
image1892×1154 92 KB
OpenCode GO里Qwen3.6 Plus的回答
--【叁】--:
image451×270 70.9 KB
antigravity里面的gemini 3.1 pro high回答的,好像回答对了
--【肆】--:
ollama 的 v4 pro 我之前测试的时候甚至没有思考功能
--【伍】--:
这是官网的v4 pro,我在cowork模式下进行的问答,不知道对不对,不过我能确定的是,确实思考了很久
image1175×1575 114 KB
--【陆】--:
pro要在cc里开启max思考强度才能最大化推理能力,openwebui不知道怎么设置
--【柒】--:
GLM5.1 FP8精度
image1150×921 85.3 KB
--【捌】--:
哈哈哈哈,确实难受,我已经放弃了,卡的我没脾气
--【玖】--:
是对的,但是在 cc 里用可能会有额外工具和提示词。
我测试是在 openwebui 里,openwebui 默认没有额外提示词和工具,比较体现模型本身知识。
--【拾】--:
vertex渠道的Gemini 3.1 Flash Lite High Thinking的表现
有联网搜索:
image931×336 46.3 KB
无联网搜索:
image943×506 51.4 KB
--【拾壹】--:
ollama cloud 重新上线了 ds v4 pro,所以重测了一下,还是答不上来
--【拾贰】--:
openwebui 可以在对话页右上角设置里自定义 reasoning effort 选项为 max
--【拾叁】--:
vertex渠道的Gemini 3.1 Pro High Thinking的表现
有联网搜索的情况下:
image932×390 52.1 KB
不开联网搜索的情况下:
image974×365 48.1 KB
Gemini的世界知识还算可以?
--【拾肆】--:
思考确实有卡顿的问题,总体回复速度还是可以的。50 tps 左右。
主要是找不到其他量大的套餐,不然也不会用 ollama。没得选罢了。
--【拾伍】--: nite07:
test.example.com { @authed { header Authorization "Bearer 123123123" } import log test.example.com import common reverse_proxy @authed 127.0.0.1:3003 respond 401 { body "Unauthorized" } }
curl -X GET "https://test.example.com" \ -H "Authorization: Bearer 123123123" Unauthorized为什么 Unauthorized?
这是据说被降智的网页版 Gemini,也能回答出来,耗时小于 30 秒…
IMG45482205×1236 248 KB
--【拾陆】--:
@nite07
image1442×917 16.9 KB
我这里专家模式能做出来,而且很快
--【拾柒】--: nite07:
test.example.com { @authed { header Authorization "Bearer 123123123" } import log test.example.com import common reverse_proxy @authed 127.0.0.1:3003 respond 401 { body "Unauthorized" } }
image646×556 79.4 KB
龙虾,5秒。gpt-5.4 Think: off
--【拾捌】--:
越用越慢,只有 30 tps 还有十几秒的 ttft,有点受不了了
--【拾玖】--:
佬友你测试ollama的v4 pro有遇到卡顿吗?我刚刚用的时候发现思考一段就要卡一段,之前用ollama的glm5.1也是这样,还想着如果ollama的deepseek流畅一点就继续续费的
ollama的测试结果:
image1105×1767 133 KB
题目
```caddyfile
test.example.com {
@authed {
header Authorization "Bearer 123123123"
}
import log test.example.com
import common
reverse_proxy @authed 127.0.0.1:3003
respond 401 {
body "Unauthorized"
}
}
```
```shell
curl -X GET "https://test.example.com" \
-H "Authorization: Bearer 123123123"
Unauthorized
```
为什么 Unauthorized?
回答结果
| 模型名称 | reasoning effort | 回答正确与否 | 耗时 |
|---|---|---|---|
| deepseek v4 flash | max | 1.2m | |
| deepseek v4 pro | max | 2m | |
| glm-5.1 | 3m | ||
| gpt-5.4 | xhigh | 18s | |
| kimi-k2.6 | 7m |
因为我用的 ollama 还没上 deepseek v4 pro,所以用 web 端测试
ollama 重新上线了 ds v4 pro,测试仍然不能答出来
正确答案
respond 不加 matcher 会匹配所有请求,并且优先于 reverse_proxy
观察思考内容
发现大部分模型都被这两行配置硬控住,反复思考,导致耗时很长。
import log test.example.com
import common
网友解答:
--【壹】--:
就是之前版本有问题所以才下线调整的,刚刚又上线了。
--【贰】--:
image1892×1154 92 KB
OpenCode GO里Qwen3.6 Plus的回答
--【叁】--:
image451×270 70.9 KB
antigravity里面的gemini 3.1 pro high回答的,好像回答对了
--【肆】--:
ollama 的 v4 pro 我之前测试的时候甚至没有思考功能
--【伍】--:
这是官网的v4 pro,我在cowork模式下进行的问答,不知道对不对,不过我能确定的是,确实思考了很久
image1175×1575 114 KB
--【陆】--:
pro要在cc里开启max思考强度才能最大化推理能力,openwebui不知道怎么设置
--【柒】--:
GLM5.1 FP8精度
image1150×921 85.3 KB
--【捌】--:
哈哈哈哈,确实难受,我已经放弃了,卡的我没脾气
--【玖】--:
是对的,但是在 cc 里用可能会有额外工具和提示词。
我测试是在 openwebui 里,openwebui 默认没有额外提示词和工具,比较体现模型本身知识。
--【拾】--:
vertex渠道的Gemini 3.1 Flash Lite High Thinking的表现
有联网搜索:
image931×336 46.3 KB
无联网搜索:
image943×506 51.4 KB
--【拾壹】--:
ollama cloud 重新上线了 ds v4 pro,所以重测了一下,还是答不上来
--【拾贰】--:
openwebui 可以在对话页右上角设置里自定义 reasoning effort 选项为 max
--【拾叁】--:
vertex渠道的Gemini 3.1 Pro High Thinking的表现
有联网搜索的情况下:
image932×390 52.1 KB
不开联网搜索的情况下:
image974×365 48.1 KB
Gemini的世界知识还算可以?
--【拾肆】--:
思考确实有卡顿的问题,总体回复速度还是可以的。50 tps 左右。
主要是找不到其他量大的套餐,不然也不会用 ollama。没得选罢了。
--【拾伍】--: nite07:
test.example.com { @authed { header Authorization "Bearer 123123123" } import log test.example.com import common reverse_proxy @authed 127.0.0.1:3003 respond 401 { body "Unauthorized" } }
curl -X GET "https://test.example.com" \ -H "Authorization: Bearer 123123123" Unauthorized为什么 Unauthorized?
这是据说被降智的网页版 Gemini,也能回答出来,耗时小于 30 秒…
IMG45482205×1236 248 KB
--【拾陆】--:
@nite07
image1442×917 16.9 KB
我这里专家模式能做出来,而且很快
--【拾柒】--: nite07:
test.example.com { @authed { header Authorization "Bearer 123123123" } import log test.example.com import common reverse_proxy @authed 127.0.0.1:3003 respond 401 { body "Unauthorized" } }
image646×556 79.4 KB
龙虾,5秒。gpt-5.4 Think: off
--【拾捌】--:
越用越慢,只有 30 tps 还有十几秒的 ttft,有点受不了了
--【拾玖】--:
佬友你测试ollama的v4 pro有遇到卡顿吗?我刚刚用的时候发现思考一段就要卡一段,之前用ollama的glm5.1也是这样,还想着如果ollama的deepseek流畅一点就继续续费的
ollama的测试结果:
image1105×1767 133 KB

