网页论文翻译,大家一般用什么模型呢
- 内容介绍
- 文章标签
- 相关推荐
我一般有比较重的翻译需求,比如沉浸式翻译、pdf2zh的论文翻译等。现在用的主要用的是 DeepSeek,翻译一个 20 页的论文大约 0.4 元。
有没有更便宜(甚至免费)的选择呢
网友解答:--【壹】--:
Tencent-HY-MT1.5:1.8b 混元翻译1.8B和7B
--【贰】--:
用豆包浏览器
--【叁】--:
始皇提供的deeplx够用了
--【肆】--:
deepseek
--【伍】--:
Doc2X
有个网页端每天签到25页额度,里面也是可以你选择模型的不过不付费默认是豆包1.5模型
--【陆】--:
gammatrans,本地部署免费的,效果比deepseek好
--【柒】--:
找了一圈没找到,请问有链接么?
--【捌】--:
豆包也可以 豆包桌面端 顺便带一些最基础的问答 深一点的我怕被豆包气着
--【玖】--:
可以试试智谱的模型(GLM-4-Flashx-250414 ),便宜量足,百万token只要一毛钱,普通翻译用足够了,就不贴链接了
--【拾】--:
好的 谢谢佬 我看看咋搞
--【拾壹】--:
grok-4.1fast
--【拾贰】--:
翻译目前用着gpt-5-nano
--【拾叁】--:
用cerebras的qwen-3-235b-a22b-instruct-2507了
--【拾肆】--:
我是调用 API 的。电脑浏览器翻译插件和手机都用的 Gemini。对了,Grok 4.1 Fast 翻译其实也挺不错。
我一般有比较重的翻译需求,比如沉浸式翻译、pdf2zh的论文翻译等。现在用的主要用的是 DeepSeek,翻译一个 20 页的论文大约 0.4 元。
有没有更便宜(甚至免费)的选择呢
网友解答:--【壹】--:
Tencent-HY-MT1.5:1.8b 混元翻译1.8B和7B
--【贰】--:
用豆包浏览器
--【叁】--:
始皇提供的deeplx够用了
--【肆】--:
deepseek
--【伍】--:
Doc2X
有个网页端每天签到25页额度,里面也是可以你选择模型的不过不付费默认是豆包1.5模型
--【陆】--:
gammatrans,本地部署免费的,效果比deepseek好
--【柒】--:
找了一圈没找到,请问有链接么?
--【捌】--:
豆包也可以 豆包桌面端 顺便带一些最基础的问答 深一点的我怕被豆包气着
--【玖】--:
可以试试智谱的模型(GLM-4-Flashx-250414 ),便宜量足,百万token只要一毛钱,普通翻译用足够了,就不贴链接了
--【拾】--:
好的 谢谢佬 我看看咋搞
--【拾壹】--:
grok-4.1fast
--【拾贰】--:
翻译目前用着gpt-5-nano
--【拾叁】--:
用cerebras的qwen-3-235b-a22b-instruct-2507了
--【拾肆】--:
我是调用 API 的。电脑浏览器翻译插件和手机都用的 Gemini。对了,Grok 4.1 Fast 翻译其实也挺不错。

