快速卷积运算_深度学习【花书】阅读笔记:卷积神经网络

1a42f64df2b6d0de54b955720585ceeb.png

Convolution Notes

万能近似定理

万能近似定理(universal approximation theorem)(Hornik et al., 1989; Cybenko, 1989) 表明,一个前馈神经网络如果具有线性输出层和至少一层具有任何一种 ‘‘挤压’’ 性质的激活函数(例如logistic sigmoid激活函数)的隐藏层,只要给予网络足够数量的隐藏单元,它可以以任意的精度来近似任何从一个有限维空间到另一个有限维空间的 Borel 可测函数

动机

卷积运算通过三个重要的思想来帮助改进机器学习系统:稀疏交互(sparseinteractions)、参数共享(parameter sharing)、等变表示(equivariant representa-tions)。

卷积函数变体

基本卷积函数

如果输入的图像宽度是 m,核的宽度是 k,那么输出的宽度就会变成$m-k+1$

Padding

在输入层外侧添加0,使得输出层的空间宽度不会快速减少

有效(valid)卷积

e3ef5b168145d9ee661dcf021fb56471.png

没有padding,直接卷积

全(full)卷积

50dc1c57f6a6b13dfaf39edc6f262bb9.png

进行了足够多的零填充使得每个像素在每个方向上恰好被访问了 k 次,最终输出图像的宽度为 m + k − 1

通过向每层添加五个隐含的零,我们防止了表示随深度收缩。这允许我们设计一个任意深的卷积网络。

非共享卷积(unshared convolution)

4b8fb734aec0552223a2e10e0589363f.png

对少量通道间的连接进行建模允许网络使用更少的参数,这降低了存储的消耗以及提高了统计效率,并且减少了前向和反向传播所需要的计算量。这些目标的实现并没有减少隐藏单元的数目。

平铺卷积(tiled convolution)

对卷积层和局部连接层进行了折衷。

4b45aa633a310b2493adec7a246836a4.png
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值