token还能通过文言文来减少消耗?

2026-04-11 15:181阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

从未想过的套路,通过文言文来减少token的消耗。
e45229ac0096cc942404c96ce507192d1160×1862 241 KB

网友解答:
--【壹】--:

解读费力,时间换空间,空间换时间


--【贰】--:

文言文对输入的要求也有点高…


--【叁】--:

昨天朋友圈也刷到了,感觉可行


--【肆】--:

学习语文知识


--【伍】--:

还是中文牛


--【陆】--:

去标点符号,自己句读,还可以更省


--【柒】--:

古人的智慧,现在依旧管用


--【捌】--:

对自己脑子的消耗就更大了


--【玖】--:

输出token量急剧下降啊


--【拾】--:

可以的。


--【拾壹】--:

语义太丰富了,笑死


--【拾贰】--:

老祖宗的智慧还在发力


--【拾叁】--:

token 不严格等同于字符/汉字,使用文言总的 token 能节省,但可能没有想象中省得多,毕竟分词器没有针对文言文场景特别训练,比如“此/答/甚/佳”占 4 token,“这个/回答/很好”占 3 token

Image_2026-03-28_11-07-45_j0aftio1.4qq710×467 20.5 KB

Image_2026-03-28_11-07-49_xdjmqfua.qmi709×474 24.7 KB

另外就是智力损耗方面的考虑了,参考 WenyanGPT、TongGu 等工作

如果是日常交流,那倒是无所谓,还能增加点人设和乐趣


--【拾肆】--:

其实如果返回的是老三国那种文言白话, 解读起来还是很轻松的


--【拾伍】--:

token少了,但是质量可能下降吧。大模型预测下一个token的概率来输出,文言文的训练语料肯定是偏少的。


--【拾陆】--:

我记得不是清华还是北大来着还发表过专门的论文来着


--【拾柒】--:

没用的,节省token唯一的方法就是不用

佬们,突然发现一个冷知识 搞七捻三
用自己脑子思考,完全不耗 token,还不用给 Claude 充钱,血赚!

--【拾捌】--:

这个操作有点骚


--【拾玖】--:

文言文学得不好怎么办?

标签:纯水
问题描述:

从未想过的套路,通过文言文来减少token的消耗。
e45229ac0096cc942404c96ce507192d1160×1862 241 KB

网友解答:
--【壹】--:

解读费力,时间换空间,空间换时间


--【贰】--:

文言文对输入的要求也有点高…


--【叁】--:

昨天朋友圈也刷到了,感觉可行


--【肆】--:

学习语文知识


--【伍】--:

还是中文牛


--【陆】--:

去标点符号,自己句读,还可以更省


--【柒】--:

古人的智慧,现在依旧管用


--【捌】--:

对自己脑子的消耗就更大了


--【玖】--:

输出token量急剧下降啊


--【拾】--:

可以的。


--【拾壹】--:

语义太丰富了,笑死


--【拾贰】--:

老祖宗的智慧还在发力


--【拾叁】--:

token 不严格等同于字符/汉字,使用文言总的 token 能节省,但可能没有想象中省得多,毕竟分词器没有针对文言文场景特别训练,比如“此/答/甚/佳”占 4 token,“这个/回答/很好”占 3 token

Image_2026-03-28_11-07-45_j0aftio1.4qq710×467 20.5 KB

Image_2026-03-28_11-07-49_xdjmqfua.qmi709×474 24.7 KB

另外就是智力损耗方面的考虑了,参考 WenyanGPT、TongGu 等工作

如果是日常交流,那倒是无所谓,还能增加点人设和乐趣


--【拾肆】--:

其实如果返回的是老三国那种文言白话, 解读起来还是很轻松的


--【拾伍】--:

token少了,但是质量可能下降吧。大模型预测下一个token的概率来输出,文言文的训练语料肯定是偏少的。


--【拾陆】--:

我记得不是清华还是北大来着还发表过专门的论文来着


--【拾柒】--:

没用的,节省token唯一的方法就是不用

佬们,突然发现一个冷知识 搞七捻三
用自己脑子思考,完全不耗 token,还不用给 Claude 充钱,血赚!

--【拾捌】--:

这个操作有点骚


--【拾玖】--:

文言文学得不好怎么办?

标签:纯水