本地部署 LLaMA-Factory 与 CUDA 环境配置指南


木易
原创
发布时间: 2025-08-29 15:52:52 | 阅读数 0收藏数 0评论数 0
封面
LLaMA-Factory 是一个功能强大且用户友好的开源工具,旨在简化 LLaMA、ChatGLM、Qwen 等多种主流大模型的微调(Fine-tuning)与部署流程。本文将详细介绍如何在本地机器上部署 LLaMA-Factory,并正确配置 CUDA 环境以充分利用 GPU 进行加速。
1

前置准备

查看当前系统的架构和操作系统信息

uname -m && cat /etc/*release

查看 GCC 编译器版本

gcc --version
2

安装cuda

查看 CUDA 支持信息 cuda下载地址

首先,确认系统中 NVIDIA 显卡及驱动状态,可使用以下命令查看 CUDA 是否可用:

bash
深色版本
nvidia-smi

下载并安装 CUDA Toolkit 12.6.0

根据您的系统环境(Linux x86_64,WSL-Ubuntu,版本 2.0),选择对应的 CUDA Toolkit 版本进行安装。推荐使用 Runfile(Local)方式安装。

  1. 下载安装包
  2. 执行以下命令下载 CUDA 12.6.0 的 Runfile 安装程序:
bash
深色版本
wget https://developer.download.nvidia.com/compute/cuda/12.6.0/local_installers/cuda_12.6.0_560.28.03_linux.run
  1. 运行安装程序
  2. 使用 sudo 执行安装脚本:
bash
深色版本
sudo sh cuda_12.6.0_560.28.03_linux.run
  1. 安装过程说明
  2. 安装界面启动后,输入 accept 接受许可协议。
  3. 使用方向键选择安装组件(默认全选),确认无误后,将光标移至 Install 开始安装。
  4. 安装过程需要几分钟,请耐心等待直至完成。
3

查看是否安装成功

查看 CUDA 编译器版本

要查看当前系统的 nvcc(CUDA 编译器)版本,请使用以下命令(注意:-V 必须为大写):

nvcc -V

安装 nvidia-cuda-toolkit

如果系统中未安装 CUDA 工具包,可以通过 APT 包管理器安装 nvidia-cuda-toolkit

sudo apt update
sudo apt install nvidia-cuda-toolkit

验证安装

安装完成后,再次运行以下命令查看 nvcc 版本信息,确认 CUDA 工具包已正确安装:

nvcc -V

如果命令输出显示版本信息,则说明安装成功。

4

拉取LLaMa-Factory

# 拉取代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
# 进入LLama-Factory
cd LLaMA-Factory
# 安装依赖
pip install -e ".[torch,metrics]"
5

LLaMA-Factory 校验

完成安装后,可以通过使用 llamafactory-cli version 来快速校验安装是否成功

阅读记录0
点赞0
收藏0
禁止 本文未经作者允许授权,禁止转载
猜你喜欢
评论/提问(已发布 0 条)
评论 评论
收藏 收藏
分享 分享
pdf下载 下载