陪读蛙的翻译速度是不是比沉浸式翻译慢?
- 内容介绍
- 文章标签
- 相关推荐
今天试着切换到陪读蛙,用相同模型和并发限制,开智能上下文的情况下,陪读蛙肉眼可见的非常慢
网友解答:--【壹】--:
哦哦,好的
--【贰】--:
哈雷佬救救,成精翻译用不了我只好找替代品了qwq
--【叁】--:
请问是 qwen 哪个模型?
--【肆】--:
不对,神奇的点是,我重置配置后反而正常了
--【伍】--:
咋用不了了
俺 可能真得成精了
--【陆】--:
佬,用的什么模型,又快性价比又高的,求推荐
--【柒】--:
自定义 CSS 啊,让 AI 帮你写
--【捌】--:
陪读蛙的小绿点是我最不能接受的!
--【玖】--:
我也是这样,前几天都是好的
--【拾】--:
主要是翻译的时候满屏的绿点,看得我难受!
--【拾壹】--:
Cerebras 的免费 qwen-3-235b-a22b-instruct-2507,
速度能跑上 1000token/s
--【拾贰】--:
佬友好,我一直有一个问题就是陪读蛙翻译出来的文字样式只能是绿色的吗?有地方能改这个颜色吗
--【拾叁】--:
感谢,我去试试
justin5 <noreply@linux.do>于2026年3月31日 周二20:44写道:
--【拾肆】--:
是这样的
--【拾伍】--:
沉浸式翻译是粉的w
--【拾陆】--:
今天一看报错了,换陪读蛙
image828×898 79.6 KB
--【拾柒】--:
我用 cerebras 免费的 qwen,
据说每天 1M,速度也特快好用
--【拾捌】--:
我复现不出来 得找个人调一下看看是什么问题
--【拾玖】--:
美团的龙猫LongCat-Flash-Lite每天大量免费额度。
今天试着切换到陪读蛙,用相同模型和并发限制,开智能上下文的情况下,陪读蛙肉眼可见的非常慢
网友解答:--【壹】--:
哦哦,好的
--【贰】--:
哈雷佬救救,成精翻译用不了我只好找替代品了qwq
--【叁】--:
请问是 qwen 哪个模型?
--【肆】--:
不对,神奇的点是,我重置配置后反而正常了
--【伍】--:
咋用不了了
俺 可能真得成精了
--【陆】--:
佬,用的什么模型,又快性价比又高的,求推荐
--【柒】--:
自定义 CSS 啊,让 AI 帮你写
--【捌】--:
陪读蛙的小绿点是我最不能接受的!
--【玖】--:
我也是这样,前几天都是好的
--【拾】--:
主要是翻译的时候满屏的绿点,看得我难受!
--【拾壹】--:
Cerebras 的免费 qwen-3-235b-a22b-instruct-2507,
速度能跑上 1000token/s
--【拾贰】--:
佬友好,我一直有一个问题就是陪读蛙翻译出来的文字样式只能是绿色的吗?有地方能改这个颜色吗
--【拾叁】--:
感谢,我去试试
justin5 <noreply@linux.do>于2026年3月31日 周二20:44写道:
--【拾肆】--:
是这样的
--【拾伍】--:
沉浸式翻译是粉的w
--【拾陆】--:
今天一看报错了,换陪读蛙
image828×898 79.6 KB
--【拾柒】--:
我用 cerebras 免费的 qwen,
据说每天 1M,速度也特快好用
--【拾捌】--:
我复现不出来 得找个人调一下看看是什么问题
--【拾玖】--:
美团的龙猫LongCat-Flash-Lite每天大量免费额度。

