目标检测(Object Detection)是计算机视觉领域的核心任务之一,它旨在识别图像中的物体并确定其位置,在本期的文章中,我们用一个端到端的目标检测AI应用为例子。介绍如何在QCS6490 Ubuntu系统上实现一个目标检测应用开发,我们选择Yolov8n模型作为目标检测的模型,以摄像头的实时预览的视频流为输入,最终将检测到结果会更新到视频画面帧并且显示出来。对于这样一个任务,涉及到几个关键的流程:

  1. Yolov8n模型的转换和量化
  2. 摄像头视频的拉取和解码,结果的实时显示
  3. Yolov8n模型的推理

本期的系列文章将会针对这3个步骤展开,在这个例子中,我们选择C++作为开发语言,但是文章的重点更多是关注在整体的流程和操作部署,而避免陷入太多的代码实现中。

1. Yolov8n模型的转换及量化

YOLOv8n 是 YOLOv8 系列的一个变体,它是由 Ultralytics 开发的最新一代目标检测模型,在精度和速度都有不错的表现。

1.1 前置环境要求

Ubuntu 20.04 x64 机器

QCS6490 开发板

  1. 在Ubuntu 20.04 x64上安装 Qualcomm AI Engine Direct SDK

软件包的安装说明和下载地址可以在以下链接获得

https://www.qualcomm.com/developer/software/qualcomm-ai-engine-direct-sdk

     2.QCS6490 开发板安装的是Ubuntu 20.04 arch64的系统镜像

1.2 导出onnx模型

下载Yolov8n的预训练模型

https://github.com/ultralytics/assets/releases/download/v8.2.0/yolov8n.pt

使用下面的python脚本把模型转换成onnx模型

from ultralytics import YOLO

model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)
path = model.export(format="onnx")  # export the model to ONNX format
print(path)

1.3 准备模型量化的数据

Qualcomm AI Engine Direct SDK提供了工具能够非常的完成模型的转换和量化工作。但是在模型量化之前,需要准备2个实际输入的测试数据

由于Yolov8n预训练的权重文件输入shape是 [1,640,640,3] NHWC的张量,所以我们也需要准备一些准备640x640大小的图片,并且把图片转换成float类型的张量,参考下面的python代码片段

Src是输入图片的路径

Dst是输出的目录

def convert_img_to_raw(src, dst, size,resize_type):
   
    img=cv2.imread(src)   
    cv2.imwrite(dst,img)
    
    input_img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)

    input_img = input_img / 255.0
    raw_np = input_img[np.newaxis, :, :, :].astype(np.float32)
    #
     
    img_filepath = os.path.abspath(dst)
    filename, ext = os.path.splitext(dst)
    raw_filename = filename
    raw_filename += '.raw'
    raw_np.tofile(raw_filename)
    print("save raw file to:",raw_filename)

    return 0

例如 把输入src 为 “/data/test01.jpg” dst 路径为 “/data/raw” 最后得到  /data//raw/test01.raw

创建文本yolov8n_raw_list.txt

内容为

/data/raw/test01.raw

1.4 把Yolov8n的onnx模型转换为高通QNN格式

请确认步骤1.1中的环境已经安装完成,执行模型转换命令

参考文档 Qualcomm Documentation

先使用qnn-onnx-converter工具把onnx模型转换为量化并转换为QNN的中间文件

$QNN_SDK_ROOT/bin/x86_64-linux-clang/qnn-onnx-converter \
  --input_network ./yolov8n.onnx \
  --input_list yolov8n_raw_list.txt \
  --output_path ./qnn/yolov8n_quant.cpp \
  --quantization_overrides act.encodings

act.encodings 是一个json格式的文本文件,内容如下

{
	"activation_encodings": {
		"/model.22/Sigmoid_output_0": [
			{
				"bitwidth": 16,
				"dtype": "int",
				"is_symmetric": "False",
				"max": 0.996093750000,
				"min": 0.0,
				"offset": 0,
				"scale": 0.00001519941634
			}
		],
		"output0":[
			{
				"bitwidth": 16,
				"dtype": "int",
				"is_symmetric": "False",
				"max": 643.878662109375,
				"min": 0.0,
				"offset": 0,
				"scale": 0.00982495860394255
			}
		]
	},
	"param_encodings": {
		
	}
}

1.5 编译QNN生成的代码

使用 qnn-model-lib-generator  工具编译QNN生成的cpp代码

$QNN_SDK_ROOT/bin/x86_64-linux-clang/qnn-model-lib-generator  -c ./qnn/yolov8n_quant.cpp  -b ./qnn/yolov8n_quant.bin \
 -o ./qnn_libs -t aarch64-ubuntu-gcc9.4

最后在./qnn_libs/aarch64-ubuntu-gcc9.4文件夹下面得到libyolov8n_quant.so 文件到这一步我们完成了把Yolov8的模型文件转换成QNN格式的libyolov8n_quant.so文件

1.6 拷贝so文件到QCS6490的开发板

我们把1.5编译QNN生成的代码 中生成的libyolov8n_quant.so文件拷贝的QCS6490的开发板上,同样的QCS6490也需要安装Qualcomm AI Engine Direct SDK 

接下来我们做个图预编译的动作,把libyolov8n_quant.so序列化 为yolov8n_quant.bin文件

$QNN_SDK_ROOT/bin/aarch64-ubuntu-gcc9.4/qnn-context-binary-generator \
--model ./libyolov8n_quant.so \
--backend libQnnHtp.so  --binary_file yolov8n_quant

最后得到yolov8n_quant.bin 整个模型转换步骤完成

作者:Ricky Li

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部