必需高低配, minimax m2.7 数学不好

2026-04-11 10:411阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

刚刚想升級
用claw 把和父母间买东西的帐记下來
m2.7 加減都不会, 有时誰給誰都弄錯
明明看论文(纯文字)时可以

TM 一用glm5turbo
就弄好了

可我只有老lite glm.
时光回流也付不起120-240rmb/mo 的老pro.

唯有高低配

glm 可以了

网友解答:
--【壹】--:

think level开high了吗,开了会好一点,这种简单的任务不至于还能出错啊


--【贰】--:

文字还可以,
有個 github repo, 我人眼看不似 archived,
我跟他說我沒看到,
他也指出readme 內有寫, 而不是附和我(这很重要).
所以文字的还ok.


--【叁】--:

AI本质上就是拟合人类写的文本的概率分布,是随机的,自然算不大对。用mcp会好很多


--【肆】--:

md, openclaw 原生不支持mcp server.
zhipu 的autoclaw 原生支持.


--【伍】--:

大模型这种概率性的东西,普遍很不擅长算数证明。就如当初的 0.11 > 0.9 事件。


--【陆】--:

这种有意思的在于,现在好多模型被训练知道0.9大于0.11了。但是你跟他说这两个是版本号,那个更新的时候,有些模型就会说0.9版本更新


--【柒】--:

我好像不明白。不过在客户端加一个调用 Python 的 MCP 之类的让它能验算准确率会高很多。

阅读全文
标签:人工智能
问题描述:

刚刚想升級
用claw 把和父母间买东西的帐记下來
m2.7 加減都不会, 有时誰給誰都弄錯
明明看论文(纯文字)时可以

TM 一用glm5turbo
就弄好了

可我只有老lite glm.
时光回流也付不起120-240rmb/mo 的老pro.

唯有高低配

glm 可以了

网友解答:
--【壹】--:

think level开high了吗,开了会好一点,这种简单的任务不至于还能出错啊


--【贰】--:

文字还可以,
有個 github repo, 我人眼看不似 archived,
我跟他說我沒看到,
他也指出readme 內有寫, 而不是附和我(这很重要).
所以文字的还ok.


--【叁】--:

AI本质上就是拟合人类写的文本的概率分布,是随机的,自然算不大对。用mcp会好很多


--【肆】--:

md, openclaw 原生不支持mcp server.
zhipu 的autoclaw 原生支持.


--【伍】--:

大模型这种概率性的东西,普遍很不擅长算数证明。就如当初的 0.11 > 0.9 事件。


--【陆】--:

这种有意思的在于,现在好多模型被训练知道0.9大于0.11了。但是你跟他说这两个是版本号,那个更新的时候,有些模型就会说0.9版本更新


--【柒】--:

我好像不明白。不过在客户端加一个调用 Python 的 MCP 之类的让它能验算准确率会高很多。

阅读全文
标签:人工智能