Bootstrap

安装指南:LLaMA Factory、AutoGPTQ 和 vllm

安装指南:LLaMA Factory、AutoGPTQ 和 vllm

在本文中,我们将详细介绍如何安装 LLaMA Factory、AutoGPTQ 和 vllm,这些工具在大型语言模型(LLMs)和视觉语言模型(VLMs)的微调和量化中非常有用。我们将逐步指导你完成整个安装过程,确保你能够顺利开始使用这些强大的工具。

1. 安装 LLaMA Factory

LLaMA Factory 是一个统一高效的微调框架,支持 100 多种大型语言模型和视觉语言模型。以下是安装 LLaMA Factory 的步骤:

步骤 1:克隆 LLaMA Factory 仓库

打开终端或命令提示符,运行以下命令:

bash复制

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory

步骤 2:安装依赖

使用以下命令安装 LLaMA Factory 的依赖:

bash复制

pip install -e ".[torch,metrics]"

这将安装 PyTorch 和评估指标相关的依赖。如果你需要其他额外的依赖,可以使用以下命令:

bash复制

pip install -e ".[torch,metrics,deepspeed,liger-kernel,bitsandbytes]"

2. 安装 AutoGPTQ

AutoGPTQ 是一个基于 GPTQ 算法的易于使用的 LLM 量化包。以下是安装 AutoGPTQ 的步骤:

步骤 1:克隆 AutoGPTQ 仓库

打开终端或命令提示符,运行以下命令:

bash复制

git clone https://github.com/PanQiWei/AutoGPTQ.git
cd AutoGPTQ

步骤 2:安装依赖

使用以下命令安装 AutoGPTQ 的依赖:

bash复制

pip install .

如果你需要使用 Triton 后端,可以使用以下命令:

bash复制

pip install auto-gptq[triton] --no-build-isolation

注意事项

  • CUDA 支持:确保你的系统支持 CUDA,并且安装了适当的 CUDA 版本。

  • ROCm 支持:如果你使用的是 AMD GPU,可以设置 ROCM_VERSION 环境变量来安装 ROCm 支持。

  • Intel® Gaudi® 2 支持:如果你使用的是 Intel Gaudi 2 HPUs,需要设置 BUILD_CUDA_EXT=0 环境变量。

3. 安装 vllm

vllm 是一个用于高效推理的库,支持多种量化方法。以下是安装 vllm 的步骤:

步骤 1:安装 vllm

使用以下命令安装 vllm:

bash复制

pip install "vllm>=0.4.3,<=0.6.5" -i https://pypi.tuna.tsinghua.edu.cn/simple

这个命令会从清华大学的镜像源安装 vllm,确保下载速度更快。

步骤 2:验证安装

安装完成后,可以使用以下命令验证 vllm 是否安装成功:

bash复制

pip show vllm

4. 常见问题及解决方案

问题 1:依赖冲突

如果你遇到依赖冲突问题,可以尝试以下命令:

bash复制

pip install --no-deps -e .

问题 2:CUDA 版本不兼容

确保你的 CUDA 版本与 vllm 和 AutoGPTQ 的要求一致。如果版本不兼容,可以尝试安装不同版本的 CUDA 或者使用其他镜像源。

问题 3:安装失败

如果安装失败,可以尝试以下步骤:

  1. 清理缓存

    bash复制

    pip cache purge
  2. 重新安装

    bash复制

    pip install --upgrade pip
    pip install "vllm>=0.4.3,<=0.6.5" -i https://pypi.tuna.tsinghua.edu.cn/simple

5. 结论

通过以上步骤,你应该能够成功安装 LLaMA Factory、AutoGPTQ 和 vllm。这些工具将帮助你在大型语言模型和视觉语言模型的微调和量化方面取得更好的效果。如果你在安装过程中遇到任何问题,可以参考官方文档或在相关社区寻求帮助。

希望本文对你有所帮助!如果有任何问题或建议,欢迎随时提出。

;