RKLLM 安装
RKLLM 简介
RKLLM 可以帮助用户快速将 LLM 模型部署到 Rockchip 芯片中,目前支持芯片:RK3588/RK3576/RK3562 系列芯片。
RKLLM 整体框架如下:
目前支持模型
- LLAMA models
- TinyLLAMA models
- Qwen models
- Phi models
- ChatGLM3-6B
- Gemma2
- Gemma3
- InternLM2 models
- MiniCPM models
- TeleChat models
- Qwen2-VL-2B-Instruct
- MiniCPM-V-2_6
- DeepSeek-R1-Distill
- Janus-Pro-1B
- InternVL2-1B
- Qwen2.5-VL-3B-Instruct
- Qwen3
RKLLM 安装
要使用 RKNPU,用户需要先在 x86 工作站上运行 RKLLM-Toolkit 工具,将训练好的模型转换为 RKLLM 格式的模型,然后在开发板上使用 RKLLM C API 进行推理。
x86 PC 工作站
-
(可选)安装 Anaconda
如果系统中没有安装 Python 3.11(必要版本),或者同时有多个版本的 Python 环境,建议使用 Anaconda 创建新的 Python 3.11 环境。
-
安装 Anaconda
在计算机的终端窗口中执行以下命令,检查是否安装 Anaconda,若已安装则可省略此节步骤。
X86 Linux PC$ conda --version
conda 24.9.2如出现 conda: command not found, 则表示未安装 anaconda, 请参考 Anaconda 官网进行安装。
-
创建 conda 环境
X86 Linux PCconda create -n rkllm python=3.11.11
-
进入 rkllm conda 环境
X86 Linux PCconda activate rkllm
-
如要退出环境
X86 Linux PCconda deactivate
-
-
克隆 RKLLM 仓库
X86 Linux PCgit clone -b release-v1.2.1b1 https://github.com/airockchip/rknn-llm.git && cd rknn-llm
-
安装 RKLLM-Toolkit
RKLLM-Toolkit 是一套软件开发包,供用户在 X86 PC 上进行 Huggingface 格式的 LLM 模型量化和转换。
X86 Linux PCpip3 install ./rkllm-toolkit/rkllm_toolkit-1.2.1b1-cp311-cp311-linux_x86_64.whl
若执行以下命令没有报错,则安装成功。
X86 Linux PC$python3
>>>from rkllm.api import RKLLM
开发板
-
检查 RKNPU 驱动版本是否大于等于 0.9.8,如小于此版本请下载并烧录最新 radxa 6.1 固件
提示radxa 6.1 固件默认 RKNPU 驱动版本为 0.9.6,请通过:
sudo rsetup -> System -> System Update
升级系统以更新至 0.9.8 RKNPU 驱动。 升级后请务必执行sudo apt autopurge
然后重启。Radxa OS$ sudo cat /sys/kernel/debug/rknpu/version
RKNPU driver: v0.9.8 -
(可选)手动编译 NPU 内核
若用户所使用的为非官方固件,需要对内核进行更新;其中,RKNPU 驱动包支持两个主要内核版本:kernel-5.10 和 kernel-6.1;用户可在内核根目录下的 Makefile 中确认具体版本号。内核的具体的更新步骤如下:
1) 下载压缩包 rknpu_driver_0.9.8_20241009.tar.bz2。
2) 解压该压缩包,将其中的 rknpu 驱动代码覆盖到当前内核代码目录。
3) 重新编译内核。
4) 将新编译的内核烧录到设备中。
-
RKLLM Runtime 为 Rockchip NPU 平台提供 C/C++ 编程接口,帮助用户部署 RKLLM 模型,加速 LLM 应用的实现。在板端克隆 RKLLM 仓库。
Radxa OSgit clone -b release-v1.2.1b1 https://github.com/airockchip/rknn-llm.git