网页论文翻译,大家一般用什么模型呢

2026-04-11 14:581阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

我一般有比较重的翻译需求,比如沉浸式翻译、pdf2zh的论文翻译等。现在用的主要用的是 DeepSeek,翻译一个 20 页的论文大约 0.4 元。

有没有更便宜(甚至免费)的选择呢

网友解答:
--【壹】--:

Tencent-HY-MT1.5:1.8b 混元翻译1.8B和7B


--【贰】--:

用豆包浏览器


--【叁】--:

始皇提供的deeplx够用了


--【肆】--:

deepseek


--【伍】--:

Doc2X
有个网页端每天签到25页额度,里面也是可以你选择模型的不过不付费默认是豆包1.5模型


--【陆】--:

gammatrans,本地部署免费的,效果比deepseek好


--【柒】--:

找了一圈没找到,请问有链接么?


--【捌】--:

豆包也可以 豆包桌面端 顺便带一些最基础的问答 深一点的我怕被豆包气着


--【玖】--:

可以试试智谱的模型(GLM-4-Flashx-250414 ),便宜量足,百万token只要一毛钱,普通翻译用足够了,就不贴链接了


--【拾】--:

好的 谢谢佬 我看看咋搞


--【拾壹】--:

grok-4.1fast


--【拾贰】--:

翻译目前用着gpt-5-nano


--【拾叁】--:

用cerebras的qwen-3-235b-a22b-instruct-2507了


--【拾肆】--:

我是调用 API 的。电脑浏览器翻译插件和手机都用的 Gemini。对了,Grok 4.1 Fast 翻译其实也挺不错。

image2732×2048 310 KB


--【拾伍】--:

翻译我觉得 Gemini 体感上要比其他模型好,反正我是用 Gemini-3.1-Flash-lite 或者 3-Flash 做翻译任务了。


--【拾陆】--:

用哪个ai studio 的作为翻译吗


--【拾柒】--:

deepseek不应该是最便宜了那一档了么
免费的话可以找找支持翻译的公益中转


--【拾捌】--:

之前用的是GPTOSS120b,现在上游除了点问题,该用gemini 3flash


--【拾玖】--:

是的,DeepSeek 算这种量级的模型里最便宜的那档了;但一些较小的(7B/32B)的模型可能会有很多免费的 serving (?

标签:人工智能
问题描述:

我一般有比较重的翻译需求,比如沉浸式翻译、pdf2zh的论文翻译等。现在用的主要用的是 DeepSeek,翻译一个 20 页的论文大约 0.4 元。

有没有更便宜(甚至免费)的选择呢

网友解答:
--【壹】--:

Tencent-HY-MT1.5:1.8b 混元翻译1.8B和7B


--【贰】--:

用豆包浏览器


--【叁】--:

始皇提供的deeplx够用了


--【肆】--:

deepseek


--【伍】--:

Doc2X
有个网页端每天签到25页额度,里面也是可以你选择模型的不过不付费默认是豆包1.5模型


--【陆】--:

gammatrans,本地部署免费的,效果比deepseek好


--【柒】--:

找了一圈没找到,请问有链接么?


--【捌】--:

豆包也可以 豆包桌面端 顺便带一些最基础的问答 深一点的我怕被豆包气着


--【玖】--:

可以试试智谱的模型(GLM-4-Flashx-250414 ),便宜量足,百万token只要一毛钱,普通翻译用足够了,就不贴链接了


--【拾】--:

好的 谢谢佬 我看看咋搞


--【拾壹】--:

grok-4.1fast


--【拾贰】--:

翻译目前用着gpt-5-nano


--【拾叁】--:

用cerebras的qwen-3-235b-a22b-instruct-2507了


--【拾肆】--:

我是调用 API 的。电脑浏览器翻译插件和手机都用的 Gemini。对了,Grok 4.1 Fast 翻译其实也挺不错。

image2732×2048 310 KB


--【拾伍】--:

翻译我觉得 Gemini 体感上要比其他模型好,反正我是用 Gemini-3.1-Flash-lite 或者 3-Flash 做翻译任务了。


--【拾陆】--:

用哪个ai studio 的作为翻译吗


--【拾柒】--:

deepseek不应该是最便宜了那一档了么
免费的话可以找找支持翻译的公益中转


--【拾捌】--:

之前用的是GPTOSS120b,现在上游除了点问题,该用gemini 3flash


--【拾玖】--:

是的,DeepSeek 算这种量级的模型里最便宜的那档了;但一些较小的(7B/32B)的模型可能会有很多免费的 serving (?

标签:人工智能