如何免费下载并部署HuggingFace上的GPT类模型,无需额外费用?
- 内容介绍
- 文章标签
- 相关推荐
本文共计905个文字,预计阅读时间需要4分钟。
若您希望在本地上运行GPT类模型,但受限于网络访问、存储路径或费用问题,可能是由于以下原因导致的:
一、配置HF镜像源与环境变量
通过替换Hugging Face默认请求端点为国内镜像站,可绕过网络限制并显著提升下载速度。该方法无需修改代码,仅需设置全局环境变量即可生效。
1、在Linux或macOS终端中执行以下命令,并将该行追加至~/.bashrc或~/.zshrc中以永久生效:
export HF_ENDPOINT=https://hf-mirror.com
2、在Windows PowerShell中执行:
$env:HF_ENDPOINT="https://hf-mirror.com"
3、验证是否生效:运行echo $HF_ENDPOINT(Linux/macOS)或$env:HF_ENDPOINT(PowerShell),输出应为https://hf-mirror.com。
二、使用huggingface-cli工具下载模型
该命令行工具支持断点续传、指定目录、排除软链接等高级功能,适合批量下载和生产部署场景。
1、安装最新版huggingface_hub:
pip install -U huggingface_hub
2、创建专用模型存储目录(避免占用C盘):
mkdir -p /data/models/gpt2
3、执行下载(以gpt2为例):
huggingface-cli download gpt2 --local-dir /data/models/gpt2 --local-dir-use-symlinks False
4、如需下载私有模型,先执行huggingface-cli login并粘贴具备Read权限的Access Token。
三、通过Python脚本离线加载并保存模型
适用于需要预处理、量化或适配特定推理框架的场景。该方式可完全控制模型文件结构,且支持无网络环境下的二次分发。
1、安装必要依赖:
pip install transformers torch accelerate
2、运行Python脚本加载并保存模型到自定义路径:
from transformers import AutoTokenizer, AutoModelForCausalLM; tokenizer = AutoTokenizer.from_pretrained("gpt2"); model = AutoModelForCausalLM.from_pretrained("gpt2"); tokenizer.save_pretrained("./offline_gpt2"); model.save_pretrained("./offline_gpt2")
3、确认目录下生成config.json、pytorch_model.bin、tokenizer.json等完整文件。
四、使用hfd工具实现高速稳定下载
hfd是专为Hugging Face设计的增强型下载器,底层基于aria2c多线程引擎,支持自动重试、并发连接与带宽控制,特别适合大模型(如gpt-oss-20b)下载。
1、下载并赋予执行权限:
wget https://hf-mirror.com/hfd/hfd.sh && chmod a+x hfd.sh
2、设置镜像环境变量(同方法一):
export HF_ENDPOINT=https://hf-mirror.com
3、启动下载(启用4线程,跳过已存在文件):
./hfd.sh gpt-oss-20b --tool aria2c -x 4
4、下载完成后,模型将解压至当前目录下的gpt-oss-20b子目录,结构清晰,无需额外解包。
五、重定向Hugging Face缓存路径
默认缓存位于用户主目录下的.cache/huggingface/hub,极易导致C盘或根分区爆满。通过修改缓存根目录,可将所有自动下载内容导向大容量磁盘。
1、创建新缓存目录(例如挂载盘):
mkdir -p /mnt/data/hf_cache
2、设置环境变量覆盖默认路径:
export HF_HOME=/mnt/data/hf_cache
3、验证生效:运行python -c "from huggingface_hub import hf_home; print(hf_home())",输出应为/mnt/data/hf_cache。
4、此后所有from_pretrained()调用、pipeline初始化、datasets加载均将使用该路径缓存模型与分词器。
本文共计905个文字,预计阅读时间需要4分钟。
若您希望在本地上运行GPT类模型,但受限于网络访问、存储路径或费用问题,可能是由于以下原因导致的:
一、配置HF镜像源与环境变量
通过替换Hugging Face默认请求端点为国内镜像站,可绕过网络限制并显著提升下载速度。该方法无需修改代码,仅需设置全局环境变量即可生效。
1、在Linux或macOS终端中执行以下命令,并将该行追加至~/.bashrc或~/.zshrc中以永久生效:
export HF_ENDPOINT=https://hf-mirror.com
2、在Windows PowerShell中执行:
$env:HF_ENDPOINT="https://hf-mirror.com"
3、验证是否生效:运行echo $HF_ENDPOINT(Linux/macOS)或$env:HF_ENDPOINT(PowerShell),输出应为https://hf-mirror.com。
二、使用huggingface-cli工具下载模型
该命令行工具支持断点续传、指定目录、排除软链接等高级功能,适合批量下载和生产部署场景。
1、安装最新版huggingface_hub:
pip install -U huggingface_hub
2、创建专用模型存储目录(避免占用C盘):
mkdir -p /data/models/gpt2
3、执行下载(以gpt2为例):
huggingface-cli download gpt2 --local-dir /data/models/gpt2 --local-dir-use-symlinks False
4、如需下载私有模型,先执行huggingface-cli login并粘贴具备Read权限的Access Token。
三、通过Python脚本离线加载并保存模型
适用于需要预处理、量化或适配特定推理框架的场景。该方式可完全控制模型文件结构,且支持无网络环境下的二次分发。
1、安装必要依赖:
pip install transformers torch accelerate
2、运行Python脚本加载并保存模型到自定义路径:
from transformers import AutoTokenizer, AutoModelForCausalLM; tokenizer = AutoTokenizer.from_pretrained("gpt2"); model = AutoModelForCausalLM.from_pretrained("gpt2"); tokenizer.save_pretrained("./offline_gpt2"); model.save_pretrained("./offline_gpt2")
3、确认目录下生成config.json、pytorch_model.bin、tokenizer.json等完整文件。
四、使用hfd工具实现高速稳定下载
hfd是专为Hugging Face设计的增强型下载器,底层基于aria2c多线程引擎,支持自动重试、并发连接与带宽控制,特别适合大模型(如gpt-oss-20b)下载。
1、下载并赋予执行权限:
wget https://hf-mirror.com/hfd/hfd.sh && chmod a+x hfd.sh
2、设置镜像环境变量(同方法一):
export HF_ENDPOINT=https://hf-mirror.com
3、启动下载(启用4线程,跳过已存在文件):
./hfd.sh gpt-oss-20b --tool aria2c -x 4
4、下载完成后,模型将解压至当前目录下的gpt-oss-20b子目录,结构清晰,无需额外解包。
五、重定向Hugging Face缓存路径
默认缓存位于用户主目录下的.cache/huggingface/hub,极易导致C盘或根分区爆满。通过修改缓存根目录,可将所有自动下载内容导向大容量磁盘。
1、创建新缓存目录(例如挂载盘):
mkdir -p /mnt/data/hf_cache
2、设置环境变量覆盖默认路径:
export HF_HOME=/mnt/data/hf_cache
3、验证生效:运行python -c "from huggingface_hub import hf_home; print(hf_home())",输出应为/mnt/data/hf_cache。
4、此后所有from_pretrained()调用、pipeline初始化、datasets加载均将使用该路径缓存模型与分词器。

