ccswitch在codex分类中配置minimax会出现404

2026-04-29 09:322阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

image2000×1300 139 KB

最近刚订购了一个minimax的token plan,把apikey填上去发现,点击获取模型会出现不支持模型列表,就算手动填了MiniMax-M2.7还是会提醒提示404,这是ccswitch的问题还是minimax的问题,这minimax不还是他们家赞助商吗,怎么这个支持都有问题‘

这个是在codex下的,claude下应该正常

网友解答:
--【壹】--:

也是不行,这个方法都尝试过了,加不加v1 开不开完整地址,看github说minimax有好多借口都是404,真是无敌了这厂家


--【贰】--:

是的,没看你在用codex,codex只有response


--【叁】--:

好吧好吧,感谢大佬了,看来codex确实是用不了minimax了,这文档也不更新,之前还有个codexcli,现在不能用了也不删


--【肆】--:

再补充点,minimax 文档过时了, codex cli 早弃用了 chat/completions 接口接入了


--【伍】--:

试试anthropic格式的,这个文档更推荐


--【陆】--:
MiniMax 开放平台文档中心

Codex CLI - MiniMax 开放平台文档中心

在 Codex CLI 中使用 MiniMax-M2.7 模型进行 AI 编程。

我看他官方文档的配置模板用的还是 chat 不是 response,不知道跟这个有没有关系


--【柒】--:

minimax的问题, codex弃用这个了


--【捌】--:

你在做什么??? Minimax不支持 openai response 接口好吧


--【玖】--:

我觉得要不你把那个完整 URL 关一下?


--【拾】--:

a家的可以但是codex好像不行吧,我试过glm和minimax开了代理也不行啊,是不是我哪里配置错了


--【拾壹】--:

换个 harness吧,opencode pi 都还可以,codex cli 作为 工具来说其实并不很出色


--【拾贰】--:

那请问下应该怎么配置呢,这个官网Openai兼容不能直接用吗


--【拾叁】--:

真的想在 codex 中用minimax,也可以用 ccswitch 里面开本地代理转一下,把A÷的代理成 responses


--【拾肆】--:

但是这个格式是不是不能接入到codex呀