微风❤水墨
https://github.com/Li-Lai
展开
-
20221227:Rockchip实战1-跑通官方模型转换
2:打开说明文档 rknpu2-master/doc/Rockchip_RV1106_Quick_Start_RKNN_SDK_V1.4.0_CN.pdf。3: 下载RK_NPU_SDK:里面包含所有的发布包、docker镜像、example十里、doc说明文档、平台工具等。RKNN-toolkit2:本工程主要为将原始的模型转化成rknn模型。RKNN-toolkit:本工程主要为将原始的模型转化成rknn模型。RKNPU2:本工程主要为Rockchip NPU提供驱动、示例等。原创 2022-12-27 13:43:27 · 1898 阅读 · 0 评论 -
20210902:Hisi量化篇2-模型择优
本篇主要介绍如何判定自己训练模型的量化损失以及如何选择最优的模型去量化如有错误和不当之处,望指教!根据我自己工作遇到的海思量化精度问题,以及如何改善和提升精度,整理记录而成。模型转换量化的一般流程:1:训练模型(fp32)2:模型选优,依据acc或者loss2:量化模型(int8/fp16)3:单图比较输出相似度4:多图评测ROC,验证精度+选择合适阈值(约等指数)一般在第3或者第4步才发现量化后,精度损失严重,甚至不能使用。举个亲身例子:我在训练活体模型原创 2021-09-02 11:31:24 · 954 阅读 · 0 评论 -
20210901:Hisi量化篇1-损失来源
本文如有错误和不当之处,望指教!主要记录工作中针对Hisi量化的学习过程以及面临的海思量化损失调整过程:经过查阅资料:了解海思的量化分为权重量化(weight+bias) + 激活量化(featuremap)1:NNIE 量化感知训练https://zhuanlan.zhihu.com/p/2230182422:Hisi量化库使用指南...原创 2021-09-01 19:09:51 · 517 阅读 · 0 评论 -
20210906:Hisi量化篇3-权值约束
本篇主要介绍网络剪枝最后一层数值精度下溢调优如有错误和不当之处,望指教!根据我自己工作遇到的海思量化精度问题,以及如何改善和提升精度,整理记录而成。回想一下上篇文章的遗留问题:layer(name:413)连接fc层,不能对其修剪,所以权值偏小【精度下溢】的情况也迁移过来了。如何处理这个问题呢?之前一直听到过梯度裁剪【约束】,那么权重是不是也可以?反正剪枝完都要finetune的,稍微裁剪约束一下应该是没有问题的。经过实验,确实可以,美滋滋!把约束前后的权重数值都保存一.原创 2021-09-23 16:46:45 · 375 阅读 · 0 评论 -
20221108:onnx2caffe错误处理1-Mul维度不匹配问题
这是按num进行拼接,比如上面,输入图像均为24×24×3,用于分类的有150张图片,用于boundingbox回归的有50张,用于关键点回归的也有50张,则最后拼接的结果就是 (150+50+50)×3×24×24。输入的data_all维度为 250×3×24×24,拆分后的3个输出的维度依次为 150×3×24×24,50×3×24×24, 50×3×24×24。concat就是合并的操作,那么slice就是拆分的操作,需要指定的参数是:拆分的通道axis、拆分的位置slice_point。原创 2022-11-08 20:12:39 · 376 阅读 · 0 评论 -
20210906:Hisi量化篇4-模型剪枝
本篇主要介绍网络剪枝可以极大改善量化损失如有错误和不当之处,望指教!根据我自己工作遇到的海思量化精度问题,以及如何改善和提升精度,整理记录而成。网络剪枝的好处是啥?1:在保持精度的条件下,可以降低运算量和参数量【毕竟端侧设备推理性能是在有限】从下图可以看出,不同的prune-ratio,精度都还可以 flops可以降低1/3,params可以降低1/2 如果好好在调参,应该可以进一步剪枝2:可以减少量化损失数据:我司自有的活体ir数据网络:mobilenet-.原创 2021-09-06 15:00:08 · 514 阅读 · 0 评论 -
20221216:sigmastar系列1-222D硬件DIVP加速接口使用
DIVP支持对图像进行预处理,比依赖cpu要快速一些。记录一下自己使用的demo。1:先大体了解一下DIVP的功能作用。2:熟悉一下我们将要使用的接口。3:上代码(已crop为例)原创 2022-12-16 11:17:39 · 360 阅读 · 0 评论