手动下载模型 #
打开模型的对应页面, 手动点击下载. 缺点: 只能一个一个下载
Git LFS 模型下载方案(优雅,但不够灵活) #
准备工作 #
Git LFS的方案相较于前面自行实现的方案要简洁的多得多. 我们需要在安装 git
的基础上,再安装 git lfs
.
git lfs install
Ubuntu #
sudo apt-get install git-lfs
模型下载 #
点击主页下载 #
-
打开主页面
点击图中按钮
-
点击
Clone respository
-
根据图中前两条命令安装
git lfs install git clone https://huggingface.co/YeungNLP/firefly-llama2-13b-chat
Hugging Face Hub 模型下载方案(优雅,强烈推荐) #
准备工作 #
准备工作同样很简单, 我们只需要安装 huggingface_hub
.
普通安装 huggingface_hub
#
详细内容请查看 官方文档
pip install huggingface_hub
如果想使用 TUI
管理 huggingface_hub
下载的模型:
pip install -U "huggingface_hub[cli]"
Arch Linux #
在 Arch Linux 中可以安装 AUR 包: python-huggingface-hub 但是没有 CLI 特性, 无法使用 TUI 界面
推荐使用 uv
安装 huggingface_hub
#
方便快捷
uv tool install huggingface_hub
模型下载 #
huggingface_hub
提供了很多种模型下载的方案, 详细的可以到 官方文档 进行查看
默认下载到 ~.cache/huggingface/hub
使用库下载 #
-
snapshot_download
from huggingface_hub import snapshot_download path = snapshot_download(repo_id="FlagAlpha/Llama2-Chinese-7b-Chat") print(path)
-
忽略一些内容
在
snaphot_download
方法中, 提供了allow_regex
和ignore_regex
两个参数, 简单来说前者是对指定的匹配项进行下载, 后者是忽略指定的匹配项, 下载其余部分. 我们只需要使用其中一种就可以了.snapshot_download(repo_id="bert-base-chinese", ignore_regex=["*.h5", "*.ot", "*.msgpack"])
-
使用代理
可以使用:
export http_proxy=http://127.0.0.1:20171 export https_proxy=http://127.0.01:20171
然后再执行
python
脚本下载.
使用 CLI
下载
#
-
下载单个文件
hf download gpt2 config.json
-
下载整个储存库
hf download HuggingFaceH4/zephyr-7b-beta
-
过滤
可以使用
--include
和--exclude
来过滤下载的文件
-
下载到本地文件夹
使用
--local-dir
来下载到指定文件夹