自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 weak3 (数据增强、轻量化网络)论文阅读笔记

weak3(数据增强)论文阅读笔记论文阅读笔记一.数据增强方向四篇一.数据增强方向四篇1.The Effectiveness of Data Augmentation in Image Classification using Deep Learning(2017)作者提出了几种数据增强的方法传统方法,从图像变换的角度出发,对图像进行移动、缩放、旋转、翻折、扭曲、上色等处理之后送入分类器。生成对抗网络。通过给一张输入图片选定六种不同的风格,利用GAN网络,生成相应风格的图片,再送入网络。增强网

2021-10-05 20:08:26 351

原创 weak2 (DenseNet、SEnet、EfficientNet、)论文阅读笔记

Densely Connected Convolutional Networks(DenseNet)论文阅读笔记一.Densely Connected Convolutional Networks(DenseNet)论文总结1.DenseNet中每一个Block中的每一层都与前面的每一层相连,提高了特征的利用2.每一层的输出x0,x1,x2,输入到下一层时,先进行concat操作,然后送入Network作用。3.transition layer改变相邻block之间的尺寸,而对于每一个block中的尺寸是一

2021-09-25 21:38:55 243

原创 VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION 论文阅读笔记

VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION (VGG) 论文阅读笔记论文中的相关问题1.感受野2.将大卷积核分解论文中的相关问题1.感受野在机器视觉领域的深度神经网络中有一个概念叫做感受野,用来表示网络内部的不同位置的神经元对原图像的感受范围的大小。神经元之所以无法对原始图像的所有信息进行感知,是因为在这些网络结构中普遍使用卷积层和pooling层,在层与层之间均为局部相连(通过sliding filter)。

2021-09-17 10:53:38 215

原创 Dropout: A Simple Way to Prevent Neural Networks from Overfitting 论文阅读笔记

Dropout: A Simple Way to Prevent Neural Networks from Overfitting 论文阅读笔记论文中的相关问题1.随机失活论文中的相关问题1.随机失活比如某个神经元学到了白天必须搭配太阳,失活之后可以提高泛化能力...

2021-09-17 10:36:39 108

原创 Deep Residual Learning for Image Recognition 论文阅读笔记

Deep Residual Learning for Image Recognition(ResNet) 论文阅读笔记论文中的相关问题1.短路连接对于梯度传播很快,而经过卷积的梯度传播比较慢2.论文中的相关问题1.短路连接对于梯度传播很快,而经过卷积的梯度传播比较慢2.模型训好后,对于新的十万数据,不打标签,利用聚类进行学习,结果竟然比监督学习效果高很多(打标签反而从一方面来说有些机械)步态类内差大于类间差,所以无监督学习效果会好。...

2021-09-17 10:28:55 122

原创 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 论文阅读笔记

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 论文阅读笔记论文中的相关问题1.内部协变量偏移2.加入BN层的位置3.BN层前的卷积不需要偏置,因为做BN会把偏置减掉论文中的相关问题1.内部协变量偏移训练时参数变化会导致各层分布不断变化2.加入BN层的位置在非线性变换前加BN(因为RELU会导致一部分数据丢失)3.BN层前的卷积不需要偏置,因为做BN会把偏置减

2021-09-17 10:22:56 60

原创 Visualizing and Understanding Convolutional Networks 论文阅读笔记

Visualizing and Understanding Convolutional Networks 论文阅读笔记论文中的相关问题1.反卷积之后看到的为什么能学到这些东西?学到的到底是啥2.为什么相似的东西响应最大?3.对一个物体先做分割还是识别?4.每层学到的东西不相同5.网络过拟合,学出来的是什么6.假如一张图片没有某个特征,但被分到某一类中,对这张图对应的神经元进行反卷积,会得到什么?7.反卷积论文中的相关问题1.反卷积之后看到的为什么能学到这些东西?学到的到底是啥学到的是共性的东西,卷

2021-09-16 23:35:00 86

原创 Going deeper with convolutions(GooLeNet)论文阅读笔记

Going deeper with convolutions(GooLeNet)论文阅读笔记论文中的相关问题1.![在这里插入图片描述](https://img-blog.csdnimg.cn/1d397b9c0ad14d3fb2c0342ae2a3b697.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAcWluZ3l1YW41MTI=,size_15,color_FFFFFF,t_

2021-09-16 20:49:17 79

原创 ImageNet Classification with Deep Convolutional Neural Networks(AlexNet)论文阅读笔记

ImageNet Classification with Deep Convolutional Neural Networks (AlexNet)论文阅读笔记论文中的相关问题1.为什么要引入非线性激活函数2.为什么在CNN中不用sigmoid而选择用ReLu激活函数3.AlexNet中引入Dropout论文中的相关问题1.为什么要引入非线性激活函数如果激活函数是线性的,那么无论有多少层隐藏层,都可以只用一层隐藏层加激活函数得到一样的结果。加深神经网络的层数就没有什么意义了。例如:存在一个线性函

2021-09-16 20:40:40 117

原创 Gradient-Based Learning Applied to Document Recognition (LeNet) 论文阅读笔记

Gradient-Based Learning Applied to Document Recognition (LeNet) 论文阅读笔记论文中的相关问题论文中的相关问题1.为什么卷积神经网络具有平移不变性原文如下:Convolutional networks combine three architectural ideas to ensure some degree of shift, scale, and distortion in-variance:local receptive f

2021-09-16 19:56:21 270

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除