![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
手部姿态识别
文章平均质量分 64
检测手部运动状态
尼古拉斯·two_dog
这个作者很懒,什么都没留下…
展开
-
手部姿态检测(按帧)
目的:识别手部在脸上的动作,比如:涂眼霜、涂水乳、敷面膜、没动作方法1:svm数据集:20-30人,3w+张图片准确度:0.85(opencv的手部特征检测器不准)训练技巧:1.分别选取稳定的几个点代表整个手部,脸部也是如此2.坏帧清洗,自动剔除没有检测到手或者图片模糊导致检测不准的帧3.数据做归一化处理特征:1.计算手部中心点和脸部中心点的欧氏距离2.计算指尖中心点到内眼角的欧氏距离3.计算指尖与眼睛的y轴距离4.计算手部和脸部所有关键点向量的欧式距离5.计算手部和原创 2021-07-02 13:56:14 · 1027 阅读 · 0 评论 -
手部姿态检测(按视频段)_v1(数据处理)
参考时空图卷积,加上了空间信息,把二维的坐标点加上时间帧的维度,形成三维的矩阵数据。方法2:st-gcn、hcn、2s-agcn数据集:20人,7k+段视频准确度:0.95训练技巧:1.自动清洗数据,判断人脸检测是否变形,判断一段视频的有效帧是否足够2.尝试了1s/2s/4s视频进行预测,最终选择2s 64帧作为一条数据,有15帧有效则数据可用,否则是无效数据3.数据预处理,把一段视频的所有帧,脸部和手部的检测点转化成3维数据(2d坐标+置信度),等于加上时间信息数据处理步骤:原创 2021-07-02 13:55:24 · 454 阅读 · 0 评论 -
手部姿态检测(按视频段)_v2(stgcn)
参考链接:https://github.com/yongqyu/st-gcn-pytorchhttps://www.cnblogs.com/shyern/p/11262926.htmlhttps://blog.csdn.net/qq_36893052/article/details/79860328https://www.zhihu.com/collection/437834930网络特点:stgcn(时空图卷积):1.2018年提出,网络由九层时空图卷积,一共有9个时间卷积核,原创 2021-07-02 09:42:33 · 1277 阅读 · 0 评论 -
手部姿态检测(按视频段)_v3(hcn)
参考链接:https://github.com/huguyuehuhu/HCN-pytorchhcn(分层共现网络):1.2018年提出,早于st-gcn2.区别于GCN和RNNs,这是基于CNN的骨骼行为识别3.通过维度转换,实现了对通道的卷积处理,建立了任意两个节点之间的可学习权重连接,将图当成强连通图对待试验结果:代码工程:本文只贴出三个文件,数据处理+训练+测试,其他的可从参考链接下载。data.py 数据处理from torch.util..原创 2021-07-02 10:37:03 · 496 阅读 · 0 评论 -
手部姿态检测(按视频段)_v4(2s-agcn)
参考链接:https://github.com/lshiwjx/2s-AGCNhttps://blog.csdn.net/zahidzqj/article/details/95813290https://www.jiqizhixin.com/articles/2020-01-15-142s-agcn(双流自适应图卷积):1.2019年提出的一种新的自适应图卷积网络,改进了stgcn的一些缺点2.双流是:分别训练关节(单个关键点)和骨骼(两个关键点之间),然后把两个模型的softmax原创 2021-07-02 10:58:48 · 810 阅读 · 4 评论 -
手部姿态检测(按视频段)_v5(模拟现网 模型集成_stgcn)
目前最优:1.2s-agcn放弃,清洗不清洗都比不上另外两个;2.若是清洗,选择hcn更好; 2s-15帧3.若是不清洗,选择stgcn更好。 2s-15帧,取所有64帧最终使用:stgcn视频获取规则:1.按视频段推进,预测完一段视频后,可以选择经过一个间隔期,然后从新找一段视频,进行预测;2.按视频帧推进,预测完一段视频后,滑窗推进n帧(5/10?),得到新的一段视频,进行预测。预测规则:1.预测n段视频,得到n个预测结果,取出现次数最多的label作为最终结果;2...原创 2021-07-02 13:52:17 · 552 阅读 · 0 评论