跳到主要内容

板端部署 YOLOv5 目标检测

提示

本文档旨在演示如何在 rockchip RK3588/3566 系列芯片上运行板端推理 YOLOv5 目标检测模型,所需环境配置请参考 RKNN 安装

此示例用 rknn_model_zoo 中预训练好的 ONNX 格式模型为例子通过模型转换到板端推理做完整示例。

利用 rknn 部署YOLOv5 需要两个步骤

  • PC 端利用 rknn-toolkit2 将不同框架下的模型转换成 rknn 格式模型
  • 板端利用 rknn-toolkit2-lite 的 Python API 板端推理模型

PC端模型转换

提示

Radxa 已提供预转换好的 yolov5s_rk35XX.rknn 模型,用户可直接参考板端推理 YOLOv5 跳过 PC 端模型转换章节

  • 如使用 conda 请先激活 rknn conda 环境

    conda activate rknn
  • 下载 yolov5s_relu.onnx 模型

    cd rknn_model_zoo/examples/yolov5/model
    # 下载预训练好的 yolov5s_relu.onnx 模型
    bash download_model.sh

    如遇到网络问题,可访问 此页 下载对应的模型到对应文件夹

  • 使用 rknn-toolkit2 转换成 yolov5s_relu.rknn

    cd rknn_model_zoo/examples/yolov5/python
    python3 convert.py ../model/yolov5s_relu.onnx <TARGET_PLATFORM> <dtype> <output_rknn_path>

    参数解析:

    <onnx_model>: 指定 ONNX 模型路径

    <TARGET_PLATFORM>: 指定 NPU 平台名称。支持的平台请参考这里

    <dtype>(可选): 指定为 i8fpi8 用于 int8 量化,fp 用于 fp16 量化。默认为 i8

    <output_rknn_path>(可选): 指定 RKNN 模型的保存路径,默认保存在与 ONNX 模型相同的目录中,文件名为 yolov5.rknn

  • 将 yolov5.rknn 模型拷贝到板端

板端推理 YOLOv5

提示

RK3566/3568 芯片用户使用 NPU 前需要在 rsetup overlays 中开启, 具体请参考 rsetup

  • (可选)下载 radxa 准备的 yolov5s rknn 模型

    平台下载链接
    rk3566yolov5s_rk3566.rknn
    rk3568yolov5s_rk3568.rknn
    rk3588yolov5s_rk3588.rknn
  • 修改 rknn_model_zoo/py_utils/rknn_executor.py 代码

    请根据板端安装 RKNN Model Zoo 配置 RKNN Model Zoo 代码仓库

    1 # from rknn.api import RKNN
    2 try:
    3 from rknn.api import RKNN
    4 except:
    5 from rknnlite.api import RKNNLite as RKNN
    ...
    ...
    18 ret = rknn.init_runtime()
  • 修改 rknn_model_zoo/examples/yolov5/python/yolov5.py 代码

    262 outputs = model.run([np.expand_dims(input_data, 0)])
  • 安装依赖环境

    pip3 install opencv-python-headless
  • 运行 yolov5 示例代码

    cd rknn_model_zoo/examples/yolov5/python
    python3 yolov5.py --model_path <your model path> --img_save

    如你使用的是自己转换的模型需从 PC 端拷贝到板端,并用 --model_path 参数指定模型路径

    rock@radxa-zero3:~/rknn_model_zoo/examples/yolov5/python$ python3 yolov5.py --model_path ./yolov5s_rk3566.rknn --target rk3566 --img_save
    use anchors from '../model/anchors_yolov5.txt', which is [[[10.0, 13.0], [16.0, 30.0], [33.0, 23.0]], [[30.0, 61.0], [62.0, 45.0], [59.0, 119.0]], [[116.0, 90.0], [156.0, 198.0], [373.0, 326.0]]]
    --> Init runtime environment
    I RKNN: [09:28:50.071] RKNN Runtime Information, librknnrt version: 1.6.0 (9a7b5d24c@2023-12-13T17:31:11)
    I RKNN: [09:28:50.071] RKNN Driver Information, version: 0.8.8
    I RKNN: [09:28:50.073] RKNN Model Information, version: 6, toolkit version: 2.1.0+708089d1(compiler version: 2.1.0 (967d001cc8@2024-08-07T11:32:45)), target: RKNPU lite, target platform: rk3566, framework name: ONNX, framework layout: NCHW, model inference type: static_shape
    W RKNN: [09:28:50.073] RKNN Model version: 2.1.0 not match with rknn runtime version: 1.6.0
    W RKNN: [09:28:50.141] query RKNN_QUERY_INPUT_DYNAMIC_RANGE error, rknn model is static shape type, please export rknn with dynamic_shapes
    W Query dynamic range failed. Ret code: RKNN_ERR_MODEL_INVALID. (If it is a static shape RKNN model, please ignore the above warning message.)
    done
    Model-./yolov5s_rk3566.rknn is rknn model, starting val
    infer 1/1

    IMG: bus.jpg
    person @ (209 243 286 510) 0.880
    person @ (479 238 560 526) 0.871
    person @ (109 238 231 534) 0.840
    person @ (79 353 121 517) 0.301
    bus @ (91 129 555 464) 0.692
    Detection result save to ./result/bus.jpg

    参数解析:

    --model_path: 指定 rknn 模型路径

    --img_folder: 进行推理的图片库, 默认 ../model

    --img_save: 是否保存推理结果图到 ./result,默认 False

  • 所有推理结果保存在 ./result 中

result0