有三笔记
YHbackkon
在CSDN记录我点滴的成长
展开
-
关于batchsize iteration epoch
batchsize:中文翻译为批大小(批尺寸)。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;iteration:中文翻译为迭代,1个iteration等于使用batchsize个样本训练一次;一个迭代 = 一个正向通过+一个反向通过;epoch:迭代次数,1个epoch等于使用训练集中的全部样本训练一次;一个epoch = 所有训练样本的一个正向传递和...翻译 2019-05-02 13:19:01 · 198 阅读 · 0 评论 -
DNN CNN RNN LSTM 的区别
神经网络的来源 神经网络技术起源于上世纪五、六十年代,当时叫感知机(perceptron),包含有输入层、输出层和一个隐藏层。输入的特征向量通过隐藏层变换到达输出层,由输出层得到分类结果。但早期的单层感知机存在一个严重的问题——它对稍微复杂一些的函数都无能为力(如异或操作)。直到上世纪八十年代才被Hition、Rumelhart等人发...转载 2019-05-02 15:10:47 · 2503 阅读 · 2 评论 -
关于卷积参数
stride表示步长pad表示填充,如图:group表示分组,主要当年GPU不是很强大,分成多组分别卷积,叫做群卷积。原创 2019-05-02 16:26:02 · 247 阅读 · 0 评论 -
关于各种CNN架构(笔记)
googlenet:由11卷积,33卷积,55卷积,33最大池化四个并行通道运算结果进行融合,提取图像不同尺度的信息。如果说VGG是以深度取胜,那么GoogLeNet可以说是以宽度取胜;mobilenets:一个depthwise convolution,专注于该通道内的空间信息,一个pointwise convolution,专注于跨通道的信息融合,两者共同努力,然后强大;resnet:利用...原创 2019-05-02 21:48:47 · 136 阅读 · 0 评论 -
关于全连接神经网络和卷积神经网络
文章目录区别卷积神经网络的优点关于卷积神经网络的filter的理解区别在全连接神经网络中,每相邻两层之间的节点都有边相连,于是会将每一层的全连接层中的节点组织成一列,这样方便显示连接结构。而对于卷积神经网络,相邻两层之间只有部分节点相连。卷积神经网络的优点用全连接神经网络处理图像的最大问题就是:全连接层的参数太多,对于MNIST数据,每一张图片的大小是28281,其中2828代表的是图片的...翻译 2019-04-28 19:58:19 · 1790 阅读 · 0 评论