huggingface国内镜像 清华
时间: 2025-02-05 15:03:34 浏览: 2870
### Hugging Face 国内清华大学镜像站点
当使用 Hugging Face 下载模型或其他资源时,国内用户可能会遇到网络连接不稳定或速度较慢的问题。为了提高下载效率和稳定性,可以利用清华大学提供的镜像服务。
对于 Hugging Face 的资源获取,可以通过设置环境变量 `HF_ENDPOINT` 来指向清华大学的镜像地址:
```bash
export HF_ENDPOINT=https://mirrors.tuna.tsinghua.edu.cn/hugging-face/
```
此命令临时更改当前会话中的 Hugging Face 访问端点至清华大学镜像服务器[^2]。如果希望永久生效,则可将上述命令添加到用户的 shell 配置文件(如 `.bashrc`, `.zshrc`)中。
另外,在执行具体操作前建议先更新 `huggingface_hub` 工具包以确保兼容最新的API变更:
```bash
pip install -U huggingface_hub
```
通过以上配置,能够有效提升从 Hugging Face 获取资源的速度并增强访问可靠性。
相关问题
huggingface国内镜像
Huggingface提供了国内镜像来让用户在国内更快地下载模型。镜像地址有两个可选择的来源,分别是清华镜像和北外镜像。你可以使用以下地址来获取huggingface的国内镜像:
- 清华镜像地址:https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models/hfl/
- 北外镜像地址:https://mirrors.tuna.tsinghua.edu.***像,你可以使用以下代码来选择使用tuna或者bfsu镜像:
AutoModel.from_pretrained('bert-base-uncased', mirror='tuna')
AutoModel.from_pretrained('bert-base-uncased', mirror='bfsu')
如果你想显式地提供镜像地址,可以使用如下格式:
AutoModel.from_pretrained('bert-base-uncased', mirror='镜像地址'),其中"镜像地址"是你想要使用的具体镜像地址。
huggingface国内镜像使用
### 如何在中国使用 Hugging Face 的镜像站点
为了提高访问速度并减少延迟,在中国可以利用清华大学开源软件镜像站来获取 Hugging Face 提供的模型和其他资源[^3]。
具体方法如下:
对于 PyTorch 用户来说,可以通过设置环境变量 `TRANSFORMERS_CACHE` 和配置文件中的缓存路径指向本地目录或国内较快的源地址实现加速下载预训练模型的目的。另外还可以通过修改 `.cache/huggingface/transformers` 文件夹下的配置文件指定使用清华 TUNA 镜像作为默认仓库。
对于 TensorFlow 用户而言,操作方式基本相同,只需确保安装的是支持中文社区优化过的版本即可享受更流畅的服务体验。
如果希望在命令行工具中直接应用,则可以在调用 transformers 库之前加入以下 Python 代码片段完成临时性的代理更改:
```python
import os
os.environ['HF_HOME'] = '/path/to/local/cache'
```
此外,也可以考虑采用官方推荐的方式——即注册账号并通过 API Key 进行私有化部署,这样不仅可以获得更好的性能表现,同时也便于管理和维护个人所使用的各类 AI 资产。
阅读全文
相关推荐


















