![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
CNN
文章平均质量分 50
extensive_King
小小一码农,天天好好学
展开
-
卷积神经网络CNN(一)——简单介绍
本节主要来自《TensorFlow技术解析与实战》,这本书内容还行,代码就是官方代码原创 2018-07-26 14:33:49 · 914 阅读 · 0 评论 -
卷积神经网络(二)—— 所谓卷积神经网络
CNN相比与传统的NN最大的区别在于其所拥有的卷积层和pool层(池化层或者说下采样层)。其卷积运算通过三个重要的思想来帮助改进机器学习系统:稀疏交互、参数共享和变等表示。 以下介绍CNN特有及重要的几个部分:卷积层、池化层、Padding操作和Flatten: 1. 卷积层 卷积层:具体原理可参考《深度学习》P202。个人的理解,卷积就是局部的加权平均,将本来离散的信息集中起来...原创 2018-07-26 14:34:57 · 343 阅读 · 0 评论 -
卷积神经网络(三)—— 反向传播
在卷积神经网络(CNN)前向传播算法中,我们对CNN的前向传播算法做了总结,基于CNN前向传播算法的基础,我们下面就对CNN的反向传播算法做一个总结。在阅读本文前,建议先研究DNN的反向传播算法:深度神经网络(DNN)反向传播算法(BP) 1. 回顾DNN的反向传播算法 2. CNN的反向传播算法思想 3. 已知池化层的δ^l,推导上一隐藏层的δ^l-1 ...转载 2018-07-26 14:35:59 · 446 阅读 · 1 评论 -
CNN细枝末节系列之特征图大小处理
pytorch中的2D卷积的函数是: class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True) Parameters: in_channels(int) – 输入信号的通道 out_channels(int) ...原创 2018-07-26 14:37:33 · 677 阅读 · 0 评论