板 端部署 YOLOv5 目标检测
提示
本文档旨在演示如何在 rockchip RK3588/3566 系列芯片上运行板端推理 YOLOv5 目标检测模型,所需环境配置请参考 RKNN 安装
此示例用 rknn_model_zoo 中预训练好的 ONNX 格式模型为例子通过模型转换到板端推理做完整示例。
利用 rknn 部署YOLOv5 需要两个步骤
- PC 端利用 rknn-toolkit2 将不同框架下的模型转换成 rknn 格式模型
- 板端利用 rknn-toolkit2-lite 的 Python API 板端推理模型
PC端模型转换
提示
Radxa 已提供预转换好的 yolov5s_rk35XX.rknn
模型,用户可直接参考板端推理 YOLOv5 跳过 PC 端模型转换章节
-
如使用 conda 请先激活 rknn conda 环境
conda activate rknn
-
下载 yolov5s_relu.onnx 模型
cd rknn_model_zoo/examples/yolov5/model
# 下载预训练好的 yolov5s_relu.onnx 模型
bash download_model.sh如遇到网络问题,可访问 此页 下载对应的模型到对应文件夹
-
使用 rknn-toolkit2 转换成 yolov5s_relu.rknn
cd rknn_model_zoo/examples/yolov5/python
python3 convert.py ../model/yolov5s_relu.onnx <TARGET_PLATFORM> <dtype> <output_rknn_path>参数解析:
<onnx_model>
: 指定 ONNX 模型路径<TARGET_PLATFORM>
: 指定 NPU 平台名称。支持的平台请参考这里<dtype>(可选)
: 指定为i8
或fp
。i8
用于 int8 量化,fp
用于 fp16 量化。默认为i8
<output_rknn_path>(可选)
: 指定 RKNN 模型的保存路径,默认保存在与 ONNX 模型相同的目录中,文件名为yolov5.rknn
-
将 yolov5.rknn 模型拷贝到板端
板端推理 YOLOv5
提示
RK3566/3568 芯片用户使用 NPU 前需要在 rsetup overlays 中开启, 具体请参考 rsetup
-
(可选)下载 radxa 准备的 yolov5s rknn 模型
平台 下载链接 rk3566 yolov5s_rk3566.rknn rk3568 yolov5s_rk3568.rknn rk3588 yolov5s_rk3588.rknn -
修改
rknn_model_zoo/py_utils/rknn_executor.py
代码