mac系统搭建本地翻译模型给沉浸式翻译用
- 内容介绍
- 文章标签
- 相关推荐
打开终端,命令行安装ollama
curl -fsSL https://ollama.com/install.sh | sh
再
ollama pull translategemma
或者你喜欢的翻译模型。
然后关键的操作,终端输入以下命令行,限制模型的上下文长度为8k
cat > Modelfile <<'EOF'
FROM translategemma
PARAMETER num_ctx 8192
EOF
ollama create translategemma-ctx8k -f Modelfile
运行后,沉浸式翻译调用的模型名称为translategemma-ctx8k
应该适合大部分日常使用场景,翻译质量很不错,我用8k的派生模型时,ollama内存占用2G多点。M4 pro max芯片
网友解答:--【壹】--:
感谢大佬!
--【贰】--:
嗯,其实用translategemma模块翻译得更专业一些,可以派生它的8k版本。
--【叁】--:
你的帖子里教的就是使用translategemma模块8k来翻译的吧
打开终端,命令行安装ollama
curl -fsSL https://ollama.com/install.sh | sh
再
ollama pull translategemma
或者你喜欢的翻译模型。
然后关键的操作,终端输入以下命令行,限制模型的上下文长度为8k
cat > Modelfile <<'EOF'
FROM translategemma
PARAMETER num_ctx 8192
EOF
ollama create translategemma-ctx8k -f Modelfile
运行后,沉浸式翻译调用的模型名称为translategemma-ctx8k
应该适合大部分日常使用场景,翻译质量很不错,我用8k的派生模型时,ollama内存占用2G多点。M4 pro max芯片
网友解答:--【壹】--:
感谢大佬!
--【贰】--:
嗯,其实用translategemma模块翻译得更专业一些,可以派生它的8k版本。
--【叁】--:
你的帖子里教的就是使用translategemma模块8k来翻译的吧

