编程技术分享平台

网站首页 > 技术教程 正文

秒懂大模型:如何使用Git LFS下载HuggingFace大模型权重文件

xnh888 2024-10-20 15:26:03 技术教程 46 ℃ 0 评论

使用 Git LFS(Large File Storage)从 Hugging Face 下载模型权重文件涉及以下几个步骤。让我们一步一步来:

1. 安装 Git LFS

首先,您需要确保已经安装了 Git LFS。可以通过以下命令安装:

  • 对于 macOS
brew install git-lfs
  • 对于 Ubuntu
sudo apt-get install git-lfs
  • 对于 Windows
    请从 Git LFS 官方网站 下载并安装。

安装完成后,初始化 Git LFS:

git lfs install

2. 克隆 Hugging Face 模型仓库

接下来,您需要找到您想要下载的模型的 Hugging Face 仓库地址。假设我们要下载 Qwen/Qwen-7b 模型的权重文件。

在 Hugging Face 模型页面上,您可以找到模型仓库的 Git URL。通常是这样的格式:

https://huggingface.co/Qwen/Qwen-7b

使用 Git 克隆仓库:

git clone https://huggingface.co/Qwen/Qwen-7b

3. 下载 LFS 文件

克隆完成后,进入克隆下来的目录并下载 LFS 文件:

cd Qwen-7b
git lfs pull

4. 确认文件下载

确保所有的权重文件已经下载完成,可以通过查看目录内容来确认:

ls -lh

5. 在代码中使用本地模型

现在模型权重文件已经下载到本地,您可以在代码中使用这些本地文件。以下是一个示例代码:

from transformers import AutoModelForCausalLM, AutoTokenizer

# 指定保存路径
model_directory = "/path/to/your/cloned/repo/Qwen-7b"

# 从本地目录加载分词器和模型
tokenizer = AutoTokenizer.from_pretrained(model_directory)
model = AutoModelForCausalLM.from_pretrained(model_directory)

# 编码输入文本
input_text = "你好,世界!"
inputs = tokenizer(input_text, return_tensors="pt")

# 生成文本
outputs = model.generate(**inputs)

# 解码生成的文本
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(generated_text)

6. 总结

通过以上步骤,您可以使用 Git LFS 从 Hugging Face 下载模型权重文件并在本地使用这些文件:

  1. 安装并初始化 Git LFS。
  2. 克隆 Hugging Face 模型仓库。
  3. 使用 git lfs pull 下载权重文件。
  4. 在代码中加载本地保存的模型和分词器。

这样做的好处是可以避免重复下载大文件,节省带宽,并且可以更方便地管理模型文件。

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表