CNN
咬我呀_Gemini
这个作者很懒,什么都没留下…
展开
-
《CNN笔记总结系列之五》全连接层及卷积网络相关其他知识
《CNN笔记总结系列之五》全连接层及卷积网络相关其他知识-------本文仅为学习笔记,不做任何商业用途-------前言 《CNN笔记总结系列》的[1]-[4]分别介绍了卷积神经网络的输入层、卷积层、激励层以及池化层。本文紧接着上述内容,简单介绍卷积神经网络的全连接层。一、全连接层 全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。两层之间所有神经元都有权重连接,通常全连接层在卷积神经网络尾部。原创 2020-11-24 13:29:16 · 1158 阅读 · 0 评论 -
《CNN笔记总结系列之四》池化层
《CNN笔记总结系列之四》-------本文仅为学习笔记,不做任何商业用途-------前言 在《CNN笔记总结系列》中,[1]-[3]已经分别介绍了卷积神经网络的数据输入层、卷积计算层和激励层。本文紧接上述内容,着重讲解卷积神经网络池化层的相关知识。一、池化层简要介绍 池化层是夹在两个连续的卷积层之间,用于压缩数据和参数的量由此来减小过拟合的。同时,池化的目的是提取特征,以减少向下一阶段传递的数据量,所以从图像处理的层面来说,池化层的最主要的作用就是压缩图像的同时,保留图像中的关键特原创 2020-11-24 13:00:28 · 1364 阅读 · 0 评论 -
《CNN笔记总结系列之三》激励层
《CNN笔记总结系列之三》激励层-------本文仅为学习笔记,不做任何商业用途-------前言 《CNN笔记总结系列》前两部分简要介绍了CNN的数据输入层以及卷积计算层,这一部分紧接着上述内容进行激励层的介绍。一、激励层简要介绍 在神经网络中,神经元向后传递信息需要与阈值做比较来激活神经元从而向后传递信息,而同样在CNN卷积神经网络中,在卷积后同样需要激活过程,而把卷积层输出结果做非线性映射就是激励层的作用。 为什么要用激活函数? 如果不用激活函数,每一层输出都是上原创 2020-11-24 11:16:46 · 2947 阅读 · 0 评论 -
《CNN笔记总结系列之二》卷积层
《CNN笔记总结系列之二》卷积层-------本文仅为学习笔记,不做任何商业用途-------前言 在CNN笔记[1]中,已经详细的介绍了卷积神经网络的相关知识概念以及数据处理层的一些相关知识,本章从CNN的卷积计算层方面进行详细介绍。一、卷积运算介绍1.1一维卷积 在维基百科上,一维卷积的定义式如下所示:1.2二维卷积 二维卷积的定义式如下所示: 二维卷积的使用相对一维卷积更为广泛,尤其是在计算机视觉领域,图像处理的相关工作会经常用到,这是因为图像从本质上就可原创 2020-11-24 10:33:43 · 621 阅读 · 0 评论