海思部署
无
tang-shopping
做个有用的人!
展开
-
海思开发:yolo v5的 focus层 移植到海思上的方法
一、前言经网友提醒,yolo v2的 passthrough 层与 v5 的 focus 层很像,因为海思是支持 passthrough 层的,鉴于此,花了点时间了解了一下,提出一些浅见,抛砖引玉。二、区别上文我说的是,二者很像,说明它们还是有区别的,现在说说区别。1. passthrough 层出于严谨,结合海思文档图片与 passthrough 源码来一起理解,先看看 passthrough 源码:// 它的源码是 c++ 的,不是 python 格式int reorg_cpu(THFlo原创 2020-12-15 11:39:15 · 7569 阅读 · 40 评论 -
海思开发:mobilefacenet 模型: pytorch -> onnx -> caffe -> nnie
一、前言最近有空,把之前的项目梳理记录一下,惠已惠人。二、详情人脸模型是在 pytorch 下训练的,工程文件用的是这个:MobileFaceNet_Tutorial_Pytorch训练完成之后,先转为onnx模型并做简化,代码如下:def export_onnx(): import onnx parser = argparse.ArgumentParser() #parser.add_argument('--weights', type=str, default=r'F:原创 2020-12-03 12:00:56 · 5112 阅读 · 11 评论 -
海思开发:python下转换图片为bgr_planner格式
前言模型转换后,性能多多少少都有点损失,为了评估肯定需要在海思上跑个数据集,但是海思的图片输入格式是bgr_planner格式,所以需要对图片做个格式转换。对于大神来说,直接全用c/c++完成,但本菜逼只能选择这种two-stage方式了。代码废话不多说,代码都是经过试验,确定能跑的通的。为了放心,特意还做了个试验,同一张图片用python转为bgr_planner格式,和用c++转为bgr_planner格式,再先后喂入人脸识别模型,最后的输出特征值差了0.05左右。import cv2impo原创 2020-10-16 15:35:46 · 1220 阅读 · 0 评论 -
海思开发:基于 SSD行人检测模型 3516D V300 部署
一、前言最近项目因一些原因停止,空下来的我给自己找点事做,所以就把眼光瞄上了行人检测,该模型是我一个目标检测群群主发的,他在知乎和git都有账号,不过我忘了。。。不说其他了,开始吧。二、模型的选择与转换模型是一切的基础,之所以选定这个模型也是因为它的op海思都支持,没什么很新的op,使得转换模型成为可能。模型平面图就不看了,太大了,我等下提供gitee仓库的地址,有需要自己下去看吧。1.模型转换原模型是pytorch版本,所以先要转化成onnx,再转化成caffe,最后转化成nnie-wk格式,在原创 2020-07-03 11:39:44 · 3198 阅读 · 5 评论 -
海思开发:海思api保存 yvu420sp 为 bmp图片文件
一、前言最近在植入模型时,遇到了模型精度不准的问题,为了定位精度下降的原因,采取一个个节点排除的方法。首先就是确保输入图片无误。所以就有了这篇文章,记录一下经验,欢迎来往各位不吝指教。二、代码屁话不多说,直接上代码,一些基础的知识,比如海思api的介绍,bmp的介绍等等,自己去学习吧,此文不做展开了。参考博文,可以先看看他们的:海思 api 例子:https://blog.csdn.net/mhsszm/article/details/104946840 ;bmp 代码 :https://blo原创 2020-05-11 19:42:17 · 2241 阅读 · 4 评论