花书 《深度学习》 学习笔记 卷积神经网络-理论基础

第九章:卷积网络(convolutional network)

卷积网络一般用在特征提取部分,最终再将提取到地特征作为输入放入到分类器中,那么为什么我们要使用卷积来提取特征,它的优势是什么?

在这一章中我们将学习卷积运算池化以及卷积的优势

9.1 卷积运算

在通常形式中,卷积是对两个实变函数的一种数学运算。

假设我们现在有一个关于时间的位置函数 x ( t ) x(t) x(t)​,并且该函数具有一定的噪声,我们想要让某一位置更加可信,因此我们需要借助之前的信息来修正该位置信息。显然,时间上越接近的测量结果越相关,我们可以增加一个关于距离目前时间间隔为a加权函数 w ( a ) w(a) w(a)​​,该函数满足a越大, w ( a ) w(a) w(a)​越小,于是我们可以通过积分得到新的更加平滑的序列 s ( t ) s(t) s(t)​:
s ( t ) = ∫ x ( a ) w ( t − a ) d a s(t)=\int x(a)w(t-a)da s(t)=x(a)w(ta)da
实际上 w ( a ) w(a) w(a)​是某种概率密度函数,类似于正态分布,距离当前时间点越远,信息权重越低。
以上是在数学形式上的卷积。

------------------------------------------------正文开始----------------------------------------------------

在卷积神经网络中,卷积的第一个参数叫做输入(input),第二个参数叫做核函数(kernel function),输出被称为特征映射(feeature map)

例如,把一张二维的图像I作为输入,我们也许想要使用一个二维的核K:
s ( i , j ) = ( I ∗ k ) ( i , j ) = ∑ m ∑ n I ( m , n ) K ( i − m , j − n ) s(i,j)=(I*k)(i,j)=\sum_m\sum_nI(m,n)K(i-m,j-n) s(i,j)=(Ik)(i,j)=

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值