- 博客(35)
- 资源 (3)
- 问答 (3)
- 收藏
- 关注
转载 caffe Batchnorm使用
目录一、简介二、网络分析三. 理论知识:CNN 网络中的 Batch Normalizationhttps://blog.csdn.net/sunbaigui/article/details/50807398一、简介如果将googlenet称之为google家的inception v1的话,其Batch Normalization(http://arxiv.org/p...
2019-11-29 17:17:00 282
转载 tensorflow 之目标检测(ssd)
https://zhuanlan.zhihu.com/p/28867241目录1.预设框2.分类预测3.回归预测4.下采样特征层5.损失函数1.预设框2.分类预测3.回归预测4.下采样特征层5.损失函数【完毕】...
2019-11-29 00:41:31 197
原创 tensorflow 之 tfrecoder
目录1.定义类型2.写3.读4.显示5.原始代码5.1写5.2读5.3显示https://blog.csdn.net/miaomiaoyuan/article/details/568653611.定义类型2.写3.读4.显示5.原始代码5.1写5.2读5.3显示【完毕】...
2019-11-28 00:48:56 129
原创 tensorflow之正则化
https://tianchi.aliyun.com/course/courseConsole?courseId=198&chapterIndex=4§ionIndex=27
2019-11-27 23:44:31 103
原创 tensorflow之droout
https://tianchi.aliyun.com/course/courseConsole?courseId=198&chapterIndex=4§ionIndex=25
2019-11-27 23:33:09 193
原创 tesoirflow之学习率衰减
目录1.学习率衰减的函数2.导入数据3.定义模型4.定义loss和acc5.定义优化器6.优化模型7.结论【学习率衰减,是因为学习率太大,开始震荡了,因此降低学习率,可以加速收敛】1.学习率衰减的函数2.导入数据3.定义模型4.定义loss和acc5.定义优化器6.优化模型7.结论【学习率衰减,是因为学习率太大...
2019-11-27 23:31:08 178
原创 tensorflow 之 数据增强
目录1.测试数据增强1.1图像放缩1.2截取1.3翻转1.4旋转1.5亮度、对比度。颜色1.6综合2.实际训练中使用2.1增强数据2.2构建模型2.3训练模型2.4对比试验,如果不做增强的效果。2.5结论https://tianchi.aliyun.com/course/courseConsole?courseId=198&chapt...
2019-11-27 23:22:41 968
原创 tensorflow 之 bn - keras
目录关于karas的修改:1.BN的好处1.1尽快收敛1.2可以设置较大的学习率1.3初始化要求不严格1.4可能会给与更好的结果2.keras中BN的修改点2.1全连接层2.2卷积层3.全部代码4.训练结果差别train without bn(下图)train_with_bn(下图)5.全部代码:关于karas的修改:https:/...
2019-11-27 22:56:05 1055
原创 tensorflow之googlenet
https://tianchi.aliyun.com/course/courseConsole?spm=5176.12282070.0.0.2a012042piZFJv&courseId=198&chapterIndex=4§ionIndex=14思路清晰,以后再补充:1.加载数据2.定义模型3.训练...
2019-11-27 00:13:51 163
原创 tensorflow之slim
【注意要多训练几次,才能看到趋势】目录1.加载数据2.建立模型3.训练模型1.加载数据2.建立模型3.训练模型【完毕】
2019-11-26 23:47:38 108
原创 tensorflow 之 keras
目录今晚的模型,刚开始没有收敛,原因:1.keras.layer中Maxpooling2D,而不是Maxpool,虽然我现在也不知道有啥区别。附件,全部代码:1.加载数据1.1可视化数据1.2预处理数据2.建立模型2.1可视化模型2.2保存模型2.3显示模型3.训练模型4.评估模型5.预测图像今晚的模型,刚开始没有收敛,原因:1.k...
2019-11-26 22:46:54 192
原创 tensorflow之 alenet cifar10
目录本文训练的一个难点:1.数据归一化2.动量优化会更好一些3.要训练充分,本文训练3个epoch,准确率为69%,训练6个epoch,准确率为85%。附录:全部代码:1.加载数据1.1.可视化数据1.2预处理数据2.建立模型3.训练模型本文训练的一个难点:1.数据归一化2.动量优化会更好一些3.要训练充分,本文训练3个epoch,准...
2019-11-26 00:05:03 180
原创 tensorflow 之 conv pool
目录一种全新的测试函数功能的方法1.加载数据-PIL库的使用2.conv3.pool一种全新的测试函数功能的方法1.加载数据-PIL库的使用2.conv3.pool【完毕】...
2019-11-22 00:19:23 447
原创 tensorflow之tensorboard
目录1.训练不收敛,修改了两个地方1.1loss的输入,应该是不经过activation的。1.2准确率的公式忘记写axis了哈2.全部代码2.1加载数据2.2建立模型3.训练模型4.tensorboard显示主要关注summary的使用。【但是我还是不是很能看懂他的作用】1.训练不收敛,修改了两个地方1.1loss的输入,应该是不经过activatio...
2019-11-21 23:44:18 258
原创 tensorflow 之 mnist
目录需要注意的细节:1.绘制多幅图像,很好的一种思路:2.求最大值3.关于维度的问题4.求准确率的方法5.10分类的最大损失值6.初始值不合适,直接发散。见下图7.全部代码7.1加载数据7.1.1可视化数据7.1.2预处理数据7.2建立模型7.2.1训练前的测试7.2.2训练模型7.2.3训练后的测试7.2.4准确率计算需要注意的...
2019-11-21 00:14:16 142
原创 tensorflow 之多层感知器
目录1.散点图和plot的区别2.对于二维数据,可视化的分类方式。-先计算区域的没一点的权重,绘制等高线图,然后撒点。-思路很好代码:1.加载数据2.尝试回归模型3.建立多层感知器重点:1.散点图和plot的区别2.对于二维数据,可视化的分类方式。-先计算区域的没一点的权重,绘制等高线图,然后撒点。-思路很好代码:1.加载数据...
2019-11-20 00:38:41 212 1
原创 tensorflow-逻辑回归
目录1.python的filter函数2.分类曲线【还没有完全想明白】-但是可视化的思路很好3.tensorflow的高级函数4.很简单的预处理-各个维度单独预处理5.后续为代码5.1加载数据5.2预处理数据5.3建立模型5.4训练前测试模型5.5训练模型【还有一个问题:梯度下降,使用assign-sub】注意使用tensorflow的高级函数1...
2019-11-19 23:13:22 124
原创 tensorflow多项目回归
目录tensorflow自己写的话,注意两点:1.参数更新2.维度运算,防止广播流程:1.加载数据2.建立模型3.训练前分析模型4.单次训练模型5.批量训练模型tensorflow自己写的话,注意两点:1.参数更新2.维度运算,防止广播流程:1.加载数据2.建立模型3.训练前分析模型4.单次训练模型...
2019-11-17 17:57:18 127
原创 TensorFlow之线性回归
目录1.导入数据2.建立模型4.训练模型4.1训练前4.2只训练一次4.3训练1.导入数据2.建立模型3.定义loss4.训练模型4.1训练前4.2只训练一次4.3训练【完毕】...
2019-11-17 13:09:07 138
原创 batchnorm
https://blog.csdn.net/jiruiYang/article/details/77202674https://www.jianshu.com/p/cb8ebcee1b15https://blog.csdn.net/lujiandong1/article/details/53385092https://www.cnblogs.com/hrlnw/p/7227447.ht...
2019-11-09 01:06:43 91
转载 batchnorm解读
转自:https://blog.csdn.net/qq_25737169/article/details/79048516目录第一节:Batchnorm主要解决的问题1.1 Internal Covariate Shift1.2 covariate shift第二节:Batchnorm 原理解读第三节:Batchnorm源码解读第四节:Batchnorm的优...
2019-11-07 11:02:35 852
转载 mobilenev2_part
https://yinguobing.com/bottlenecks-block-in-mobilenetv2/MobileNets的核心Separable Convolution可以在牺牲较小性能的前提下有效的减少参数量[1]。但是它也存在局限,表现为Depthwise卷积的Kernel数取决于上一层的Depth,无法随意改变。MobileNetV2克服了这一局限[2]。扩增输入通道数...
2019-11-06 23:46:46 141
转载 caffe layer configure
https://blog.csdn.net/ws_20100/article/details/49184037前言层结构,是神经网络(Neural Networks)建模和计算的最基本单元。由于神经网络有不同的层结构,不同类型的层又有不同的参数。所以,对Caffe的每一层配置都不一样,而层结构和参数都预先定义在prototxt文件中,在此,我们对最新版Caffe模型的层结构做一个简要的总结。...
2019-11-05 23:25:19 122
转载 caffe train test prototxt 区别
https://blog.csdn.net/fx409494616/article/details/53008971在刚开始学习的时候,觉得train_val.prototxt文件和deploy.prototxt文件很相似,然后当时想尝试利用deploy.prototxt还原出train_val.prototxt文件,所以就进行了一下对比,水平有限,可能很多地方说的不到位,希望大神们指点批评~...
2019-11-05 23:22:17 409
转载 tensorflow 转 caffe(6)
搜集了一些资料;连接:https://www.cnblogs.com/Peyton-Li/p/10797002.html最近由于要将训练好的模型移植到硬件上,因此需要将TensorFlow转为caffe模型。caffe模型需要两个文件,一个是定义网络结构的prototxt,一个是存储了参数的caffemodel文件。只要生成这两个文件,caffe模型就算转好了。在模型转换的过程中,...
2019-11-05 22:59:27 604
转载 tensorflow 转 caffe(5)
其中的坑总结:https://www.cnblogs.com/unclelin/p/6984436.html在做tensorflow模型转caffe模型时,遇到了几个坑。其中之一就是caffe的padding方式和tensorflow的padding方式有很大的区别,导致每一层的输出都无法对齐,让我一度怀疑转换模型的代码是错的。卷积操作输出的形状计算公式是这样的:output_shap...
2019-11-05 22:35:56 134
转载 tensorflow 转 caffe(4)
转自:https://blog.csdn.net/jiongnima/article/details/78435500在笔者的上一篇博客中,提到了如何从tensorflow框架下提取出模型参数并转化为caffe框架下的模型参数,并在最后生成了一个1.1GB的.prototxt格式的参数文件,该文件里面主要记录了网络架构以及各层对应的参数。可是我们在使用caffe进行网络前传得到结果的时候,是需...
2019-11-05 22:29:27 551
转载 tensorflow 转 caffe(3)
转自:https://blog.csdn.net/jiongnima/article/details/78382972#comments在前两期专栏tensorflow2caffe(1)和tensorflow2caffe(2)中,笔者向大家介绍了caffemodel文件类型下的参数架构和如何取出tensorflow框架下训练参数。在本期中,笔者将向大家阐述,如何去将tensorflow框架下训...
2019-11-05 22:27:54 132
转载 tensorflow 转 caffe(2)
转自:https://blog.csdn.net/jiongnima/article/details/78326515经过一段时间,笔者又回来了!从2017年7月开始,笔者结束了研一繁重的考试月任务(因为平常不常上课,突击考试大家懂的),然后就进入了研二生涯。在七八月笔者就开始了自己的课题实验(由于太忙累坏了身体,先是眼睛不太好,然后又犯了胃病被迫去做胃镜,在此深切提醒各位,工作的...
2019-11-05 22:23:34 140
转载 tensorflow 转 caffe(1)
转自:https://blog.csdn.net/jiongnima/article/details/72904526在本文正式开始之前,笔者要先和各位读者朋友们道个歉。因为身为研一小白的笔者实在身不由己,除了各种任务之外,还要应付繁忙的课程,忙于各种考试像一只咸鱼。因此耽误了博文的撰写,对不起各位读者朋友,笔者在忙完6月进入研二之后一定再接再厉。下面开始干货~本篇还是一个插播的博客...
2019-11-05 22:21:01 167
原创 caffe 测试 输入图像格式
目录原理:cv2 与 caffe.io.load_image()之间的转换:caffe的输入要求案例opencv版本的:caffe.io.load_img()原理:https://blog.csdn.net/lovelyaiq/article/details/70254583https://codertw.com/%e7%a8%8b%e5%bc%8f%e8...
2019-11-04 23:00:29 1259
转载 轻量化网络ShuffleNet MobileNet v1/v2 解析
【有些乱码,今晚回去调整:主要讲了mobilenetv1/shufflenetv1/Mobile netv2】转自:https://zhuanlan.zhihu.com/p/35405071随着2012年AlexNet大放异彩,相比以前浅学习方法在ImageNet中top5 error前所未有的下降约10%,CNN已经越来越被人们关注。后续VGG,GoogleNet,ResNet进一步提高...
2019-11-04 09:05:53 528
阅读英语芯片手册的技巧
2013-02-27
stm32启动过程详解
2013-02-27
关于cvWaitKey的工作机理;图像的闪烁问题;CPU下降措施
2015-07-28
VS编写的GMM函数,效率问题
2015-07-28
关于OPENCV 中MOG的问题,关于背景比例阈值的理解。
2015-07-23
TA创建的收藏夹 TA关注的收藏夹
TA关注的人