必需高低配, minimax m2.7 数学不好
- 内容介绍
- 文章标签
- 相关推荐
刚刚想升級
用claw 把和父母间买东西的帐记下來
m2.7 加減都不会, 有时誰給誰都弄錯
明明看论文(纯文字)时可以
TM 一用glm5turbo
就弄好了
可我只有老lite glm.
时光回流也付不起120-240rmb/mo 的老pro.
唯有高低配
glm 可以了
网友解答:--【壹】--:
think level开high了吗,开了会好一点,这种简单的任务不至于还能出错啊
--【贰】--:
文字还可以,
有個 github repo, 我人眼看不似 archived,
我跟他說我沒看到,
他也指出readme 內有寫, 而不是附和我(这很重要).
所以文字的还ok.
--【叁】--:
AI本质上就是拟合人类写的文本的概率分布,是随机的,自然算不大对。用mcp会好很多
--【肆】--:
md, openclaw 原生不支持mcp server.
zhipu 的autoclaw 原生支持.
--【伍】--:
大模型这种概率性的东西,普遍很不擅长算数证明。就如当初的 0.11 > 0.9 事件。
--【陆】--:
这种有意思的在于,现在好多模型被训练知道0.9大于0.11了。但是你跟他说这两个是版本号,那个更新的时候,有些模型就会说0.9版本更新
--【柒】--:
我好像不明白。不过在客户端加一个调用 Python 的 MCP 之类的让它能验算准确率会高很多。
刚刚想升級
用claw 把和父母间买东西的帐记下來
m2.7 加減都不会, 有时誰給誰都弄錯
明明看论文(纯文字)时可以
TM 一用glm5turbo
就弄好了
可我只有老lite glm.
时光回流也付不起120-240rmb/mo 的老pro.
唯有高低配
glm 可以了
网友解答:--【壹】--:
think level开high了吗,开了会好一点,这种简单的任务不至于还能出错啊
--【贰】--:
文字还可以,
有個 github repo, 我人眼看不似 archived,
我跟他說我沒看到,
他也指出readme 內有寫, 而不是附和我(这很重要).
所以文字的还ok.
--【叁】--:
AI本质上就是拟合人类写的文本的概率分布,是随机的,自然算不大对。用mcp会好很多
--【肆】--:
md, openclaw 原生不支持mcp server.
zhipu 的autoclaw 原生支持.
--【伍】--:
大模型这种概率性的东西,普遍很不擅长算数证明。就如当初的 0.11 > 0.9 事件。
--【陆】--:
这种有意思的在于,现在好多模型被训练知道0.9大于0.11了。但是你跟他说这两个是版本号,那个更新的时候,有些模型就会说0.9版本更新
--【柒】--:
我好像不明白。不过在客户端加一个调用 Python 的 MCP 之类的让它能验算准确率会高很多。

