深度学习(六)-卷积神经网络

本文详细介绍了卷积神经网络(CNN),包括卷积层、池化层、全连接层的概念和作用,以及经典CNN结构如LeNet、AlexNet、VGGNet、GoogLeNet和残差网络的特点。卷积层采用局部连接和参数共享,池化层用于减少计算量和控制过拟合,全连接层则与传统神经网络结构类似。通过堆叠这些层,形成强大的特征提取和分类能力的卷积神经网络。
摘要由CSDN通过智能技术生成

  与全连接神经网络一样,卷积神经网络 ( C N N CNN CNN) 也是由神经元构成的,但是网络的层结构却不相同,在深度学习(四)-前馈神经网络中我们了解到,全连接神经网络由一系列隐藏层构成,每个隐藏层又是由很多个神经元构成,其中每个神经元都和前一层的所有神经元相关联,但是每一层中的神经元是相互独立的。而在卷积神经网络中的每一个神经元都只和下一层中某个局部窗口内的神经元相连,构成一个局部连接网络,组成卷积层,如下图所示:

1. 卷积

  在了解卷积神经网络的时候,我们需要先知道什么是卷积,网上和书上各说纷纭,都有自己的解释,但是万变不离其宗,我也根据自己的资料阐述一下自己的理解。
  在信号处理或图像处理中,经常使用一维或二维卷积。
  一维卷积经常用在信号处理中,用于计算信号的延迟累积。假设一个信号发生器每个时刻 t t t 产生一个信号 x t x_t xt,其信息的衰减率为 w k w_k wk,即在 k − 1 k−1 k1个时间步长后,信息为原来的 w k w_k wk 倍。那么在时刻 t t tt 收到的信号 y t y_t yt 为当前时刻产生的信息和以前时刻延迟信息的叠加,数学表现形式为:
y t = w 1 x t + w 2 x t − 1 + . . . + w k x t − k + 1 = ∑ k = 1 m w k x t − k + 1 {y_t} = {w_1}{x_t} + {w_2}{x_{t - 1}} + ... + {w_k}{x_{t - k + 1}} = \sum\limits_{k = 1}^m { {w_k}{x_{t - k + 1}}} yt=w1xt+w2xt1+...+wkxtk+1=k=1mwkxtk+1
   w 1 , w 2 . . . w k w_1, w_2...w_k w1,w2...wk 称为滤波器或卷积核,信号序列 x x x 和滤波器 w w w 的卷积定义为:
y = w ⊗ x y = w \otimes x y=wx
  例:信号序列为: x = [ 1 , 1 , 2 , − 1 , 1 ] x = [1, 1, 2, -1, 1] x=[1,1,2,1,1],滤波器为: w = [ 1 , 0 , − 1 ] w = [1, 0, -1] w=[1,0,1],我们可以推出卷积:
w ⊗ x = [ ( 1 ∗ 1 + 1 ∗ 0 + 2 ∗ ( − 1 ) ) , ( 1 ∗ 1 + 2 ∗ 0 + ( − 1 ) ∗ ( − 1 ) ) , ( 2 ∗ 1 + ( − 1 ) ∗ 0 + 1 ∗ ( − 1 ) ) ] = [ − 1 , 2 , 1 ] w \otimes x = [(1*1+1*0+2*(-1)), (1*1+2*0+(-1)*(-1)), (2*1+(-1)*0+1*(-1))]=[-1, 2, 1] w

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值