参数共享 稀疏交互 等变表示_9.2 动机

卷积运算在机器学习中通过稀疏交互、参数共享和等变表示提升效率。稀疏交互通过小核检测图像特征,减少参数和计算量;参数共享减少存储需求,提高统计效率;等变表示则让网络对平移具有不变性,适用于图像和时间序列数据。这些特性使得卷积网络在处理如边缘检测等问题时表现优秀,但对旋转和缩放等变换需额外机制处理。
摘要由CSDN通过智能技术生成

卷积运算通过三个重要的思想来帮助改进机器学习系统:稀疏交互、参数共享、等变表示。

另外,卷积提供了一种处理大小可变的输入的方法。

我们下面依次介绍这些思想。

1. 稀疏交互

[success]

每个输出与每个输入都有交互 ---> 每个输出只与核有交互,核远小于输入的数量。

传统的神经网络使用矩阵乘法来建立输入与输出的连接关系。%\footnote{译者注:这里可以粗略地理解为输入×\times×参数矩阵=输出。}

其中,参数矩阵中每一个单独的参数都描述了一个输入单元与一个输出单元间的交互。

这意味着每一个输出单元与每一个输入单元都产生交互。

然而,卷积网络具有稀疏交互(也叫做稀疏连接或者稀疏权重)的特征。

这是使核的大小远小于输入的大小来达到的。

举个例子,当处理一张图像时,输入的图像可能包含成千上万个像素点,但是我们可以通过只占用几十到上百个像素点的核来检测一些小的有意义的特征,例如图像的边缘。

这意味着我们需要存储的参数更少,不仅减少了模型的存储需求,而且提高了它的统计效率。

这也意味着为了得到输出我们只需要更少的计算量。

这些效率上的提高往往是很显著的。

如果有mmm个输入和nnn个输出,那么矩阵乘法需要m×nm \times nm×n个参数并且相应算法的时间复杂度为O(m×n)O(m\times n)O(m×n)(对于每一个例子)。

如果我们限制每一个输出拥有的连接数为kkk,那么稀疏的连接方法只需要k×nk\times nk×n个参数以及O(k×n)O(k\times n)O(k×n)的运行时间。

在很多实际应用中,只需保持kkk比mmm小几个数量级,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值