token还能通过文言文来减少消耗?
- 内容介绍
- 文章标签
- 相关推荐
从未想过的套路,通过文言文来减少token的消耗。
e45229ac0096cc942404c96ce507192d1160×1862 241 KB
--【壹】--:
解读费力,时间换空间,空间换时间
--【贰】--:
文言文对输入的要求也有点高…
--【叁】--:
昨天朋友圈也刷到了,感觉可行
--【肆】--:
学习语文知识
--【伍】--:
还是中文牛
--【陆】--:
去标点符号,自己句读,还可以更省
--【柒】--:
古人的智慧,现在依旧管用
--【捌】--:
对自己脑子的消耗就更大了
--【玖】--:
输出token量急剧下降啊
--【拾】--:
可以的。
--【拾壹】--:
语义太丰富了,笑死
--【拾贰】--:
老祖宗的智慧还在发力
--【拾叁】--:
token 不严格等同于字符/汉字,使用文言总的 token 能节省,但可能没有想象中省得多,毕竟分词器没有针对文言文场景特别训练,比如“此/答/甚/佳”占 4 token,“这个/回答/很好”占 3 token
Image_2026-03-28_11-07-45_j0aftio1.4qq710×467 20.5 KB
Image_2026-03-28_11-07-49_xdjmqfua.qmi709×474 24.7 KB
另外就是智力损耗方面的考虑了,参考 WenyanGPT、TongGu 等工作
如果是日常交流,那倒是无所谓,还能增加点人设和乐趣
--【拾肆】--:
其实如果返回的是老三国那种文言白话, 解读起来还是很轻松的
--【拾伍】--:
token少了,但是质量可能下降吧。大模型预测下一个token的概率来输出,文言文的训练语料肯定是偏少的。
--【拾陆】--:
我记得不是清华还是北大来着还发表过专门的论文来着
--【拾柒】--:
没用的,节省token唯一的方法就是不用
佬们,突然发现一个冷知识 搞七捻三用自己脑子思考,完全不耗 token,还不用给 Claude 充钱,血赚!
--【拾捌】--:
这个操作有点骚
--【拾玖】--:
文言文学得不好怎么办?
从未想过的套路,通过文言文来减少token的消耗。
e45229ac0096cc942404c96ce507192d1160×1862 241 KB
--【壹】--:
解读费力,时间换空间,空间换时间
--【贰】--:
文言文对输入的要求也有点高…
--【叁】--:
昨天朋友圈也刷到了,感觉可行
--【肆】--:
学习语文知识
--【伍】--:
还是中文牛
--【陆】--:
去标点符号,自己句读,还可以更省
--【柒】--:
古人的智慧,现在依旧管用
--【捌】--:
对自己脑子的消耗就更大了
--【玖】--:
输出token量急剧下降啊
--【拾】--:
可以的。
--【拾壹】--:
语义太丰富了,笑死
--【拾贰】--:
老祖宗的智慧还在发力
--【拾叁】--:
token 不严格等同于字符/汉字,使用文言总的 token 能节省,但可能没有想象中省得多,毕竟分词器没有针对文言文场景特别训练,比如“此/答/甚/佳”占 4 token,“这个/回答/很好”占 3 token
Image_2026-03-28_11-07-45_j0aftio1.4qq710×467 20.5 KB
Image_2026-03-28_11-07-49_xdjmqfua.qmi709×474 24.7 KB
另外就是智力损耗方面的考虑了,参考 WenyanGPT、TongGu 等工作
如果是日常交流,那倒是无所谓,还能增加点人设和乐趣
--【拾肆】--:
其实如果返回的是老三国那种文言白话, 解读起来还是很轻松的
--【拾伍】--:
token少了,但是质量可能下降吧。大模型预测下一个token的概率来输出,文言文的训练语料肯定是偏少的。
--【拾陆】--:
我记得不是清华还是北大来着还发表过专门的论文来着
--【拾柒】--:
没用的,节省token唯一的方法就是不用
佬们,突然发现一个冷知识 搞七捻三用自己脑子思考,完全不耗 token,还不用给 Claude 充钱,血赚!
--【拾捌】--:
这个操作有点骚
--【拾玖】--:
文言文学得不好怎么办?

