卷积神经网络CNN笔记

卷积神经网络CNN笔记

卷积神经网络:图片->若干次(Convolution(卷积)->Max Polling(池化)->)->Flatten->Fully Connected Feedforward
主要包括卷积层和池化层
卷积:在原始的输入上进行特征提取,在一个个小区域上进行特征提取。
池化:去除一些不会影响图片特征的部分,对特征图进行特征压缩,也叫下采样。

CNN-Convolution:
filter:滤波。使用filter在原图上进行卷积,一个filter得到一个特征图。若一个卷积层有多个filter,则将每个filter得到的特征图叠在一起即为卷积层的输出结果,若处理彩色图像,filter为3hw的立方体。
stride:步长。filter的挪动步长,stride越小,提取的特征越多,但考虑效率问题一般不取1。
pad:在原图像最外层填充的圈数。pad为1,则在原图外加一圈0。

CNN-Max Pooling:
将一定区域内的数值变成一个。
filter:滤波。选定区域的尺寸。
stride:步长。filter的挪动步长。
pooling方式:取最大,取平均。

66image使用33filter做完一次卷积和池化后变成2*2image。
图片会缩小很多,有几个filter就会有几个Chanel,每一层都是这样。
当第二次进行conv和maxpooling时,有几个filter还是会产生几个chanel,因为上一层的图片结果作为输入时会考虑深度。

Flatten:将新的image拉直,变成一维向量。

Activation:激活函数。在人工神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端,为了增加神经网络模型的非线性。
常用的激活函数:Sigmoid函数,Tanh函数,ReLU函数

Dense:全连接层。根据特征的组合进行分类,每一个单元都和前一层的每一个单元相连接。

Hidden:隐藏层。把输入数据的特征,抽象到另一个维度空间,来展现其更抽象化的特征,这些特征能更好的进行线性划分。

Dropout:解决过拟合问题。在深度学习网络的训练过程中,按照一定的概率将一部分神经网络单元暂时从网络中丢弃,相当于从原始的网络中找到一个更瘦的网络。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值