![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
zhongqianli
专注计算机视觉领域
展开
-
嵌入式开发板上部署目标检测模型mobilenetv2_ssdlite
文章目录项目地址目标细节模型量化优化图创建校准表文件量化修改输入分辨率加速效果分辨率300 x 300分辨率192 x 192相关文章项目地址mobilenetv2_ssdlite_ncnn目标在RK3308嵌入式开发板(Arm Linux)上使用ncnn部署mobilenetv2_ssdlite模型模型量化细节模型量化https://github.com/Tencent/ncnn/tree/master/tools/quantize优化图https://github.com/Ten原创 2020-12-01 20:23:09 · 2209 阅读 · 1 评论 -
如何理解torch的dim或numpy的axis
对于dim维张量x,从第0维到第dim-1维,依次对应从最外层中括号到最内层中括号。torch.sum(x, dim=0),将第0维内的元素作为运算对象进行求和;torch.sum(x, dim=1),将第1维内的元素作为运算对象进行求和;torch.sum(x, dim=dim-1),将第dim-1维内的元素作为运算对象进行求和; x = torch.tensor([[1, 2], [3, 4]]) x0 = torch.sum(x, di原创 2020-08-20 22:08:15 · 1015 阅读 · 0 评论 -
caffe源码分析---AP与mAP计算
Precision、Recall、P-R曲线Percision评估所有检测为positive的结果中,有多少是真的positive。Precision=TPTotal_Predicted_Positive=TPTP+FP Precision = \frac{TP}{Total\_Predicted\_Positive} = \frac{TP}{TP + FP}Precision=Tota...原创 2019-02-26 09:09:15 · 1159 阅读 · 0 评论 -
caffe源码分析---IoU计算
IoU计算IoU=predict检测框与ground_truth检测框的交集predict检测框与ground_truth检测框的的并集IoU = \frac{predict检测框与ground\_truth检测框的交集}{predict检测框与ground\_truth检测框的的并集}IoU=predict检测框与ground_truth检测框的的并集predict检测框与ground_tru...原创 2019-02-25 11:52:03 · 544 阅读 · 0 评论 -
caffe使用总结
文章目录由图像数据生成lmdb数据solver.prototxt【优化算法参数的调整很重要】train_test.prototxtdeploy.prototxt命令行中使用caffe脚本训练模型恢复中断的模型训练finetuning、迁移学习、预训练测试模型可视化由图像数据生成lmdb数据loss = NaN问题:(1)学习率太高(2)lmdb生成有问题,未将shuffle设置为true,...原创 2019-02-15 09:57:27 · 182 阅读 · 0 评论 -
使用opencv的dnn模块进行人脸检测
模型文件来自opencv/samples/dnn/face_detectorcaffe模型若为caffe模型,则使用readNetFromCaffe,需要用到.prototxt格式的配置文件和.caffemodel格式的模型文件dnn::Net net = readNetFromCaffe(modelConfiguration, modelBinary);tensorflow模型若为t...原创 2019-01-22 12:27:31 · 4538 阅读 · 9 评论 -
使用opencv的dnn模块进行图像识别
项目地址:https://github.com/zhongqianli/cifar10_classification.gitopencv3.4的dnn模块已经支持caffe、tensorflow、pytorch等主流深度学习框架训练的模型。本文用caffe预先在cifar10数据集上训练了resnet56模型。下面讲述如何使用opencv的dnn模块进行图像识别。dnn模块使用caffe模型...原创 2019-01-03 13:37:09 · 3507 阅读 · 1 评论 -
ubuntu16下安装pytorch
文章目录安装pytorchNo CUDA版本CUDA10版本验证是否安装成功检测GPU驱动和CUDA是否可用安装pytorchNo CUDA版本# Python 3.5pip3 install https://download.pytorch.org/whl/cpu/torch-1.0.1.post2-cp35-cp35m-linux_x86_64.whlpip3 install tor...原创 2019-02-19 13:15:07 · 486 阅读 · 0 评论 -
keras使用总结
项目源代码:https://github.com/zhongqianli/learning_keras将keras、tensorflow、caffe都学了一遍,每种框架都有各自适合的应用场景,其中keras最简单易学。本文将介绍如何使用keras训练深度学习模型。一、读取数据(1)数据准备本文使用手写体数字识别数据库mnist。keras通过mnist.load_data()即...原创 2018-08-21 17:40:23 · 473 阅读 · 0 评论 -
使用pycaffe进行网络训练
import caffecaffe.set_device(0)caffe.set_mode_gpu()solver = caffe.SGDSolver("solver.prototxt")# print layer shapefor k, v in solver.net.blobs.items(): print(k, v.data.shape)solver.solve()原创 2019-01-09 11:34:19 · 677 阅读 · 0 评论 -
caffe实现深度可分离卷积depthwise convolution
深度可分离卷积是MobileNets、Xception等深度学习网络的基石,将它实现了,那些使用了它的深度学习网络也就可以轻易实现。深度可分离卷积的原理(Depthwise Separable Convolution)深度可分离卷积由两个过程组成:depthwise convolution和pointwise convolution(即1x1 convolution)。不妨假设输入图像的高度...原创 2019-01-22 13:49:28 · 4505 阅读 · 0 评论 -
caffe使用总结
文章目录由图像数据生成lmdb数据solver.prototxt【优化算法参数的调整很重要】train_test.prototxtdeploy.prototxt命令行中使用caffe训练模型恢复中断的模型训练finetuning、迁移学习、预训练测试模型可视化自定义网络层绘制loss和accuracy变化曲线由图像数据生成lmdb数据loss = NaN问题:(1)学习率太高(2)lmdb...原创 2019-01-03 14:01:31 · 220 阅读 · 0 评论 -
keras实现transfer learning
项目地址:https://github.com/zhongqianli/transfer_learning所谓的迁移学习,就是将某个模型在某个数据库上的物体分类能力或特征提取能力应用到另一个数据库,这些“能力”本质上就是模型的权重,用大型数据库上预训练的模型的权重初始化新模型,可以更快训练好新模型。对于某个分类任务,使用迁移学习时,如果数据量比较大,则可以先将预训练模型中提取特征层的权重载入,修...原创 2019-01-04 13:04:29 · 1040 阅读 · 0 评论 -
caffe编译问题总结
编译libprotobuf从源码编译3.6.1版本,用于支持新的caffe。编译python3版本修改python_version为3,并且需要安装好numpy等python必备库set(python_version "3" CACHE STRING "Specify which Python version to use")caffe编译时支持c++11重新编译caffe时,需要c...原创 2019-01-02 10:54:42 · 139 阅读 · 0 评论 -
使用caffe的python layer自定义数据增强层DataAugmentationLayer
caffe自定义网络层的一种方式是使用python layer,这种方式需要使用pycaffe运行,命令行的方式运行会报错。项目地址:https://github.com/zhongqianli/caffe_python_layer编写DataAugmentationLayer这个类的基类是caffe.Layer,需要编写setup,reshape,forward,backward四个方法,...原创 2019-01-02 10:49:01 · 597 阅读 · 0 评论