ollama支持mlx了,Mac越来越强
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
--【陆】--:
Ollama is now updated to run the fastest on Apple silicon, powered by MLX, Apple’s machine learning framework.
This change unlocks much faster performance to accelerate demanding work on macOS:
- Personal assistants like OpenClaw
- Coding agents like Claude Code, OpenCode, or Codex
--【壹】--:
我也放弃本地拉模型,感觉弊大于利
--【贰】--:
本地模型不好使呀
--【叁】--:
已经放弃本地拉模型了,硬盘空间不足
--【肆】--:
可以,这样不用omlx和ollama同时运行了
--【伍】--:
可惜只能部署小模型
--【陆】--:
终于支持了吗
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
--【陆】--:
Ollama is now updated to run the fastest on Apple silicon, powered by MLX, Apple’s machine learning framework.
This change unlocks much faster performance to accelerate demanding work on macOS:
- Personal assistants like OpenClaw
- Coding agents like Claude Code, OpenCode, or Codex
--【壹】--:
我也放弃本地拉模型,感觉弊大于利
--【贰】--:
本地模型不好使呀
--【叁】--:
已经放弃本地拉模型了,硬盘空间不足
--【肆】--:
可以,这样不用omlx和ollama同时运行了
--【伍】--:
可惜只能部署小模型
--【陆】--:
终于支持了吗

