大家在使用codex cli gpt5.5模型时有遇到上下文压缩的时候报错404的问题吗
- 内容介绍
- 文章标签
- 相关推荐
响应详情:
{
“error”: {
“code”: “model_not_found”,
“message”: “The model gpt-5.5 does not exist or you do not have access to it.”,
“param”: null,
“type”: “invalid_request_error”
}
}
难道是sub2api的bug吗?
--【壹】--:
用ai改了下源码,大概是压缩的时候把5.5映射成5.4,
if isCompact { lowerModel := strings.ToLower(normalizedModel) if lowerModel == "gpt-5.5" || strings.HasPrefix(lowerModel, "gpt-5.5-") { normalizedModel = "gpt-5.4" reqBody["model"] = normalizedModel result.Modified = true } } 目前来看好像生效了,不知道会不会有其他问题
--【贰】--:
我也是使用sub2pai有这个问题,暂时还没找到怎么解决,我先扩上下文和new了
响应详情:
{
“error”: {
“code”: “model_not_found”,
“message”: “The model gpt-5.5 does not exist or you do not have access to it.”,
“param”: null,
“type”: “invalid_request_error”
}
}
难道是sub2api的bug吗?
--【壹】--:
用ai改了下源码,大概是压缩的时候把5.5映射成5.4,
if isCompact { lowerModel := strings.ToLower(normalizedModel) if lowerModel == "gpt-5.5" || strings.HasPrefix(lowerModel, "gpt-5.5-") { normalizedModel = "gpt-5.4" reqBody["model"] = normalizedModel result.Modified = true } } 目前来看好像生效了,不知道会不会有其他问题
--【贰】--:
我也是使用sub2pai有这个问题,暂时还没找到怎么解决,我先扩上下文和new了

