[HI3516DV300开发笔记]HiSi NNIE + opencv解算openpose人体关键点输出


本章博客上接:

《[HI3516DV300开发笔记]opencv移植与使用》

https://blog.csdn.net/abc517789065/article/details/103574974 


有两种做事方式,一种是每一步都要做到完善;另外一种是走一步看一步,打通全程再回头整理。以前我是前一种,但后来发现,这种思路在我身上其实是拖延症。

按照道理来说,openCV移植好了,我应该新建一套工程代码来整合HISI SVP NNIE demo的C与openCV C++进行混合编程,但是那样太花时间。还是尽快拿到结果为好。

所以在openCV移植到开发板完毕的情况下,先利用openCV的C接口对openpose模型的推理输出进行处理,尽快解算出NNIE的输出数据。


<0> 编译路径

我的HISI SDK SVP路径是:...\Hi3516CV500_SDK_V2.0.1.1\smp

NNIE Sample路径是:...\Hi3516CV500_SDK_V2.0.1.1\smp\a7_linux\mpp\sample\svp\nnie

<1> 添加openCV头文件到HISI SDK sample目录

将openCV交叉编译后生成的include文件夹下的opencv & opencv2目录拷贝到HISI SDK路径:

...\Hi3516CV500_SDK_V2.0.1.1\smp\a7_linux\mpp\include 

修改..\Hi3516CV500_SDK_V2.0.1.1\smp\a7_linux\mpp\Makefile.linux.param 文件中的 INC_FLAGS:

由 INC_FLAGS := -I$(REL_INC) 改为 -I$(REL_INC)/opencv/ -I$(REL_INC)/opencv2/

<2>  添加openCV库文件到HISI SDK sample目录

将openCV交叉编译后生成的lib文件夹下的所有库文件拷贝到:

...\sdk_hisi3516dv300\Hi3516CV500_SDK_V2.0.1.1\smp\a7_linux\mpp\lib下

向 ..\Hi3516CV500_SDK_V2.0.1.1\smp\a7_linux\mpp\Makefile.linux.param 文件中添加:

CFLAGS += -L $(REL_LIB) -lopencv_world -lrt -ldl

<3> 测试

在sample_nnie.c文件内添加头文件引用#include<opencv/cv.h>;然后随便找个地方新建变量 CvMat img;

make成功即可。


通过调用opencv的C接口实现功能,头文件引入例如 #include <opencv/cv.h> 即可

上篇博客说过,为了实现人体2D关键点的结算,需要对25个关键点的46*46的置信图进行解析

所谓置信图,就是一组概率数据,超过预设阈值且概率局部最大的位置就是人体关键点,一张图片的一种关键点可能有多个(多个人)

置信图先后经过高斯滤波,二值化,边沿查找,找到图片中超过阈值的最可能是人体关键点的位置,结算出坐标

具体的说,以这张图(PC端用python+opencv检测显示)为例:

橙色点标示nose,在46*46*25的置信图数据中,第1个46*46的矩阵就是nose的置信图

通过对置信图矩阵进行平滑滤波,二值化,边沿查找等操作,最终会找出三个局部最大值点,通过坐标转换(置信图是46*46而输入是368*368),就是图示的三个nose位置:

Keypoints - Nose : [(36, 22, 0.86816400000000005), (23, 15, 0.93554700000000002), (14, 15, 0.87597700000000001)]

(36, 22) (23, 15) (14, 15)是在46*46置信图内的位置

Keypoints - Nose : [(291, 179, 0.84146020312500003), (188, 123, 0.89069948828125001), (115, 124, 0.8388971328125)]

(291,179) (188, 123) (115, 124)是在368*368显示图(上图)中标点的位置


结算部分代码:

<0> 生成置信图Mat并赋值

CvMat *pFloat32Mat = NULL;
CvMat *pUint8Mat = NULL;
pFloat32Mat = cvCreateMat(46, 46, CV_32FC1);	//创建Mat 存储置信图
pUint8Mat = cvCreateMat(46, 46, CV_8UC1); 	//创建Mat 存储二值图

<1> 将NNIE的输出赋值到Mat

for(n = 0; n < pstNnieParam->astSegData[u32SegIdx].astDst[u32NodeIdx].u32Num; n++){
    //取出输出数据的前46*46*25个关键点置信图矩阵 i是通道计数
    for(i = 0;i < /*u32Chn*/25; i++){
          for(j = 0; j < u32Height; j++){
               for(k = 0; k < u32Width; k++){
                 //将置信图矩阵赋值到pFloat32Mat
                 cvmSet(pFloat32Mat, j, k, (HI_FLOAT)(*(ps32ResultAddr + k) * 0.000244));
			    }
          ps32ResultAddr += u32Stride/sizeof(HI_U32);
    }
    //其它代码....
}

<2> 高斯滤波(平滑),二值化置信矩阵,并统计每个通道大于阈值的点的个数

//对置信图进行高斯滤波
cvSmooth(pFloat32Mat, pFloat32Mat, CV_GAUSSIAN, 3, 3, 0, 0);
//对置信图进行二值化,阈值是0.1
cvThreshold(pFloat32Mat, pUint8Mat, 0.1, 1, CV_THRESH_BINARY);

highConfidencePointCnt = 0;
//遍历二值化后的置信图
for(y = 0; y < 46; y++){
	for(x = 0; x < 46; x++){
        uint8Num = *((HI_U8*)(pUint8Mat->data.ptr + pUint8Mat->step * (y) + (sizeof(HI_U8))*(x)));
        //检测到此时置信图不为0的点,也即是概率大于0.1的高可能性点
	    if(uint8Num != 0){
                //统计高置信概率点的个数
                printf("(%d, %d, %f)  ", x, y, cvmGet(pFloat32Mat, y, x));                           
                highConfidencePointCnt++;
	    }
	}
}	

<3> 提取关键点

提取关键点用的方法是通过第<2>步中找到的图像边沿,找到每个边沿中置信度最高的点:

typedef struct __NNIE_OPENPOSE_KEY_POINT_RESULT__{
	HI_BOOL isResultUpdating;	//是否正在检测中
	HI_BOOL isPointDetected;	//是否检测到人体关键点
	HI_U8 pointNum[25];
	POINT_S raw_point[25][20];	//25个人体关键点,每张图每个人体关键点假设最大20个
}OPENPOSE_BODYKEYPOINT_RESULT_s;

static OPENPOSE_BODYKEYPOINT_RESULT_s openpose_keypoint_result;

openpose_keypoint_result.raw_point[i]是第i类人体关键点在46*46的置信图中的坐标位置;

i对应的顺序:鼻子,脖子,右肩膀,右肘,右手腕......:

const HI_U8* openpose_body_keypoint_str[25]= {
	"Nose", "Neck", "R-Sho", "R-Elb", "R-Wr", "L-Sho", "L-Elb", "L-Wr", 
	"R-Hip", "R-Knee", "R-Ank", "L-Hip", "L-Knee", "L-Ank", "R-Eye", 
	"L-Eye", "R-Ear", "L-Ear", "LBigToe", "LSmallToe", "LHeel", "RBigToe",
	"RSmallToe", "RHeel", "Background",
};

提取过程:


//提取关键点
openpose_keypoint_result.pointNum[i] = 0;
for(; pContOurs != NULL; pContOurs = pContOurs->h_next){
	HI_FLOAT confidenceRate = 0, confidenceRateMax = 0;
	//查找某个边沿内所有点中概率最大点
	for(x = 0; x < pContOurs->total; x++){
		CvPoint *pt = (CvPoint*)cvGetSeqElem(pContOurs, x);
		confidenceRate = cvmGet(pFloat32Mat, pt->y, pt->x); //置信度
		//找出位于同一边缘的最大置信度点
		if(confidenceRate > confidenceRateMax){
			openpose_keypoint_result.raw_point[i][openpose_keypoint_result.pointNum[i]].s32X = pt->x;
			openpose_keypoint_result.raw_point[i][openpose_keypoint_result.pointNum[i]].s32Y = pt->y;
			confidenceRateMax = confidenceRate;
		}
	}
	OursNum++;
	openpose_keypoint_result.pointNum[i]++;
}

<4> 坐标结算的问题

从46*46的置信图获取到人体关键点的位置后,需要显示出来,但是我用的HISI的VO是1080P的,分辨率1920*1080

因此,若是某个点的位置移动了1个像素,显示上会跳动相当大的位置,出现显示检测点不断跳动的问题:

绿色是推理的鼻子位置,蓝色是脖子,红色是双肩,紫色是双肘,视频懒得传,GIF勉强看下坐标跳动的问题:

 

解决这个问题的办法应该有一些,大概可能用cvDrawContours绘制某个边沿,再用cvMoments找到形心可以?

因为是新手,也是基本靠猜靠试。

我懒得去试了,因为我认为目前这已经不是主要矛盾,数据对就可以。

还是前面说的那个思路:先打通流程,细节慢慢完善。同样的,越到后面,细节的决定作用越重要且越难处理;速度,流程,都是还有很多可以优化的。但他的前提是到了后面的阶段。


目前为止,移植openpose已经可以提取到关键点

由于实际的检测图片是368*368,输出是46*46,因此放大到显示时,显示的检测位置会有较明显跳动

检测单人且单人位于图像主要位置时,效果还不错(其实做这个的初衷已经得到部分实现)

检测多人时,则效果不理想

除了关键点之外,openpose的输出还包括人体亲和度矩阵PAFs

接下来的博客先尝试解析并显示

 


 

  • 1
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
海思 Hi3516DV300是一款先进的视频处理芯片,用于安防监控、智慧家居、智能交通等领域。它具有高性能、低功耗和丰富的接口,并支持多种视频流输出格式。 关于Hi3516DV300的软硬件全套开发资料,海思官方提供了以下内容: 1. 芯片规格书:详细介绍了Hi3516DV300的主要技术参数、功能特性以及接口说明,可以帮助开发者了解和配置芯片。 2. 硬件设计指导:包括原理图、PCB布局、外围电路等设计资料,帮助开发者进行硬件开发,确保电路的正常运行和性能优化。 3. 软件开发指南:提供了丰富的软件开发资料,包括操作系统、驱动程序、应用程序等。其中,操作系统开发指南介绍了如何配置和使用Linux系统,驱动程序开发指南说明了如何编写和调试设备驱动程序,应用程序开发指南提供了开发示例和编程接口。 4. 示例代码和工具链:提供了各类示例代码,如图像处理、视频编码等,可供开发者参考和测试。同时,还提供了适用于Hi3516DV300的交叉编译工具链,方便开发者在主机上编译和调试代码。 5. SDK(软件开发工具包):包括完整的软件库和开发工具,帮助开发者构建应用程序。SDK提供了丰富的API接口和函数库,简化了开发流程,缩短了开发周期。 综上所述,海思为Hi3516DV300提供了全套的软硬件开发资料,涵盖了芯片规格、硬件设计、软件开发、示例代码等方面,为开发者提供了丰富的参考和支持,帮助他们更好地进行产品开发和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值