网页论文翻译,大家一般用什么模型呢
- 内容介绍
- 文章标签
- 相关推荐
我一般有比较重的翻译需求,比如沉浸式翻译、pdf2zh的论文翻译等。现在用的主要用的是 DeepSeek,翻译一个 20 页的论文大约 0.4 元。
有没有更便宜(甚至免费)的选择呢
网友解答:--【壹】--:
Tencent-HY-MT1.5:1.8b 混元翻译1.8B和7B
--【贰】--:
用豆包浏览器
--【叁】--:
始皇提供的deeplx够用了
--【肆】--:
deepseek
--【伍】--:
Doc2X
有个网页端每天签到25页额度,里面也是可以你选择模型的不过不付费默认是豆包1.5模型
--【陆】--:
gammatrans,本地部署免费的,效果比deepseek好
--【柒】--:
找了一圈没找到,请问有链接么?
--【捌】--:
豆包也可以 豆包桌面端 顺便带一些最基础的问答 深一点的我怕被豆包气着
--【玖】--:
可以试试智谱的模型(GLM-4-Flashx-250414 ),便宜量足,百万token只要一毛钱,普通翻译用足够了,就不贴链接了
--【拾】--:
好的 谢谢佬 我看看咋搞
--【拾壹】--:
grok-4.1fast
--【拾贰】--:
翻译目前用着gpt-5-nano
--【拾叁】--:
用cerebras的qwen-3-235b-a22b-instruct-2507了
--【拾肆】--:
我是调用 API 的。电脑浏览器翻译插件和手机都用的 Gemini。对了,Grok 4.1 Fast 翻译其实也挺不错。
image2732×2048 310 KB
--【拾伍】--:
翻译我觉得 Gemini 体感上要比其他模型好,反正我是用 Gemini-3.1-Flash-lite 或者 3-Flash 做翻译任务了。
--【拾陆】--:
用哪个ai studio 的作为翻译吗
--【拾柒】--:
deepseek不应该是最便宜了那一档了么
免费的话可以找找支持翻译的公益中转
--【拾捌】--:
之前用的是GPTOSS120b,现在上游除了点问题,该用gemini 3flash
--【拾玖】--:
是的,DeepSeek 算这种量级的模型里最便宜的那档了;但一些较小的(7B/32B)的模型可能会有很多免费的 serving (?
我一般有比较重的翻译需求,比如沉浸式翻译、pdf2zh的论文翻译等。现在用的主要用的是 DeepSeek,翻译一个 20 页的论文大约 0.4 元。
有没有更便宜(甚至免费)的选择呢
网友解答:--【壹】--:
Tencent-HY-MT1.5:1.8b 混元翻译1.8B和7B
--【贰】--:
用豆包浏览器
--【叁】--:
始皇提供的deeplx够用了
--【肆】--:
deepseek
--【伍】--:
Doc2X
有个网页端每天签到25页额度,里面也是可以你选择模型的不过不付费默认是豆包1.5模型
--【陆】--:
gammatrans,本地部署免费的,效果比deepseek好
--【柒】--:
找了一圈没找到,请问有链接么?
--【捌】--:
豆包也可以 豆包桌面端 顺便带一些最基础的问答 深一点的我怕被豆包气着
--【玖】--:
可以试试智谱的模型(GLM-4-Flashx-250414 ),便宜量足,百万token只要一毛钱,普通翻译用足够了,就不贴链接了
--【拾】--:
好的 谢谢佬 我看看咋搞
--【拾壹】--:
grok-4.1fast
--【拾贰】--:
翻译目前用着gpt-5-nano
--【拾叁】--:
用cerebras的qwen-3-235b-a22b-instruct-2507了
--【拾肆】--:
我是调用 API 的。电脑浏览器翻译插件和手机都用的 Gemini。对了,Grok 4.1 Fast 翻译其实也挺不错。
image2732×2048 310 KB
--【拾伍】--:
翻译我觉得 Gemini 体感上要比其他模型好,反正我是用 Gemini-3.1-Flash-lite 或者 3-Flash 做翻译任务了。
--【拾陆】--:
用哪个ai studio 的作为翻译吗
--【拾柒】--:
deepseek不应该是最便宜了那一档了么
免费的话可以找找支持翻译的公益中转
--【拾捌】--:
之前用的是GPTOSS120b,现在上游除了点问题,该用gemini 3flash
--【拾玖】--:
是的,DeepSeek 算这种量级的模型里最便宜的那档了;但一些较小的(7B/32B)的模型可能会有很多免费的 serving (?

