海思开发
文章平均质量分 89
tang-shopping
做个有用的人!
展开
-
海思开发:Nanodet : onnx -> caffe -> nnie
一、前言应网友所托,帮忙转换 nanodet 模型(注:原版 nanodet 上采样是线性插值法,海思中不支持,换成反卷积了),花了一天多时间思考与尝试,终于搞定它,过程如下。二、主要过程仔细想了下,其实 nanodet 并没有什么生僻的 op,全部是很普通的、常见的那种,但是它们的组合方式以及数据的shape太令人难受了,下面我截图展示一下。1. split 不支持这里说一下,onnx 的 split 在 caffe 里面是 slice,slice 相关博客。相关代码如下:# onnx2ca原创 2021-03-02 20:45:29 · 3210 阅读 · 16 评论 -
海思开发:海思上对 relu6、hswish、h-sigmoid 移植的探索
一、前言最近在搞 mobilenet v3,v3有两个非线性函数:hswish 和 h-sigmoid,二者都用到了relu6,之前都是把它们替换,因为海思没有现成的relu6。当时就在想,能否利用现有op,组合成想要的relu6出来了? 这个想法在脑子里徘徊几天了,今天试着给它变现,结果如下。原创 2021-01-23 15:58:05 · 5241 阅读 · 20 评论 -
海思开发:relu、relu6 在量化前后的精度变化及原因思考
一、前言以前部署 HopeNet 的时候,发现了relu6与relu的差异。具体就是 relu 模型量化后精度下降 14%,relu6 模型量化后精度下降 2.5%。这两个模型除了 backbone、激活函数不一样,其他都一样。所以 relu6 可以减少量化精度损失?因为上面两个模型backbone不一样,所以考虑再进行一个条件更严格的对比实验。二、实验特意选了 MobileNet v2,它的激活函数刚好是 relu6,数据集类别数是 2,数据集大小为正负类各 500个。我们训练两款模型 Mobile原创 2021-01-22 11:14:52 · 7262 阅读 · 0 评论