- 博客(6)
- 收藏
- 关注
原创 yolov3和yolov5 android端实时部署(ncnn)
1.ncnn编译#安装环境:opencv:https://blog.csdn.net/xiao13mm/article/details/106165477sudo apt-get install autoconf automake libtool curl make g++ unzip#安装protobufsudo apt install protobuf-compiler libprotobuf-devprotobuf 版本问题报错: undefined reference to `
2022-01-11 11:29:08
5969
3
原创 yolov3 MNN框架部署C++版
一、模型转换:1.训练的模型格式:https://github.com/AlexeyAB/darknet/ darknet训练出来的weights2.将训练时的.cfg文件和训练后得到的.weights文件根据https://github.com/Tianxiaomo/pytorch-YOLOv4 中demo_darknet2onnx文件转onnx3.转成MNN二、onnx转换成MNmnn编译:https://github.com/alibaba/MNN.git建议版本:https://
2021-11-26 15:37:45
3723
原创 [论文阅读] BoostingMonocularDepth 深度估计算法
1.算法1)分辨率和深度估计结果:低分辨率——>良好的深度一致性,深度细节差高分辨率——>良好的深度细节,深度一致性差出现这种结果的原因:1.CNN网络感受野有限,高分辨率下一些像素不会接收任何上下文任何信息2.网络深度问题,实验的网络表达能力有限,缺少对更多细节的表达**2)最佳分辨率的确定:**需要寻找可以一个折中的分辨率。将二进制膨胀应用于具有不同分辨率的感受野大小内核的边缘图。然后,扩张边缘图停止产生全为一结果的分辨率是每个像素将在前向传递中接收上下文信息的最大分辨率,将其
2021-11-22 20:28:30
2776
原创 知识蒸馏现状与未来
1.综述1.Knowledge Distillation: A Survey CVPR, 2020https://blog.csdn.net/zandaoguang/article/details/1136228602.Lin Wang and Kuk-Jin Yoon. Knowledge distillation and student-teacher learning for visual intelligence: A review and new outlooks. CoRR, 2020
2021-11-22 20:05:32
2557
原创 知识蒸馏基础篇(经典论文)
我们一般希望部署到应用中的模型使用较少的计算资源(存储空间、计算单元等),产生较低的时延,因此需要进行模型压缩和加速。常用的四个技术是设计高效小型网络、剪枝、量化和蒸馏。1.基础理论2014年Hinton等人发表的《Distilling the Knowledge in a Neural Network》首次提出了蒸馏学习的概念。蒸馏学习即教师模型(大参数,深网络)蒸馏出一个学生模型(小参数,浅网络),使学生模型具有接近教师模型的效果,以达到模型压缩的目的。softmax函数,计算分类网络中输入属于第
2021-11-22 19:42:11
6966
原创 一文带你读懂深度估计算法
深度估计算法调研1.常见的深度估计算法寻找RGB图像与深度图之间存在着的某种映射关系1)几种常见算法:**① 基于几何的方法:**从一系列二维图像序列中估计三维结构,SfM,稀疏特征的深度由SfM通过图像序列之间的特征对应和几何约束来计算。存在单目尺度模糊的问题,依赖于高精确的图像匹配或高质量的图像序列。**② 基于传感器的方法:**利用深度传感器,可以直接获得相应图像的深度信息,测量范围有限,常见Kinect的有效测距范围仅为0.8m~4m。**③ 基于深度学习的方法:**CNN RNN VA
2021-11-20 15:35:58
8159
3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人