mac系统搭建本地翻译模型给沉浸式翻译用

2026-04-29 08:131阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

打开终端,命令行安装ollama

curl -fsSL https://ollama.com/install.sh | sh

ollama pull translategemma

或者你喜欢的翻译模型。

然后关键的操作,终端输入以下命令行,限制模型的上下文长度为8k

cat > Modelfile <<'EOF' FROM translategemma PARAMETER num_ctx 8192 EOF ollama create translategemma-ctx8k -f Modelfile

运行后,沉浸式翻译调用的模型名称为translategemma-ctx8k

应该适合大部分日常使用场景,翻译质量很不错,我用8k的派生模型时,ollama内存占用2G多点。M4 pro max芯片

网友解答:
--【壹】--:

感谢大佬!


--【贰】--:

嗯,其实用translategemma模块翻译得更专业一些,可以派生它的8k版本。


--【叁】--:

你的帖子里教的就是使用translategemma模块8k来翻译的吧

标签:人工智能
问题描述:

打开终端,命令行安装ollama

curl -fsSL https://ollama.com/install.sh | sh

ollama pull translategemma

或者你喜欢的翻译模型。

然后关键的操作,终端输入以下命令行,限制模型的上下文长度为8k

cat > Modelfile <<'EOF' FROM translategemma PARAMETER num_ctx 8192 EOF ollama create translategemma-ctx8k -f Modelfile

运行后,沉浸式翻译调用的模型名称为translategemma-ctx8k

应该适合大部分日常使用场景,翻译质量很不错,我用8k的派生模型时,ollama内存占用2G多点。M4 pro max芯片

网友解答:
--【壹】--:

感谢大佬!


--【贰】--:

嗯,其实用translategemma模块翻译得更专业一些,可以派生它的8k版本。


--【叁】--:

你的帖子里教的就是使用translategemma模块8k来翻译的吧

标签:人工智能