卷积神经网络(CNN)、循环神经网络(RNN)和自注意力(self-attention)对比

       考虑同一个的问题:将由n个词元组成的序列映射到另一个长度相同的序列,其中的每个输入词元或输出词元由d维向量表示。

        我们将比较能够解决上述问题的三种常用方法:卷积神经网络(CNN)、循环神经网络(RNN)和自注意力(self-attention),从三个维度比较这三种架构:计算复杂度、顺序操作和最大路径长度。

       其中,讨论顺序操作是因为顺序操作会妨碍并行计算。任意的序列位置组合之间的路径越短,越能更轻松地学习序列中的远距离依赖关系。

1、卷积神经网络(CNN)

考虑⼀个卷积核⼤⼩为k的卷积层。(后续文章中将介绍关于使⽤卷积神经⽹络处理序列的详细信息)⽬前只需要知道的是,由于序列⻓度是n,输⼊和输出的通道数量都是d,所以卷积层的计算复杂度为O\left ( knd^{2} \right )。 如图所⽰,卷积神经⽹络是分层的,因此为有O\left ( 1 \right )个顺序操作,最⼤路径⻓度为O\left ( n/k \right )。例如,\textup{\textbf{}x}_{1}\textup{\textbf{}x}_{5}处于图中卷积核⼤⼩为3的双层卷积神经⽹络的感受野内。

2、循环神经网络(RNN)

       当更新循环神经⽹络的隐状态时,d\times d权重矩阵和d维隐状态的乘法计算复杂度为O\left (d ^{2} \right )。由于序列⻓度为n, 因此循环神经⽹络层的计算复杂度为O\left (nd ^{2} \right )。根据图,有O\left (n \right )个顺序操作⽆法并⾏化,最⼤路径⻓度 也是O\left (n \right )

3、自注意力(self-attention)

        在⾃注意⼒中,查询、键和值都是n\times d矩阵。考虑缩放的”点-积“注意⼒,其中n\times d矩阵乘 以d\times n矩阵。之后输出的n\times n矩阵乘以n\times d矩阵。因此,⾃注意⼒具有O\left (n ^{2} d\right )计算复杂性。正如在图中所讲,每个词元都通过⾃注意⼒直接连接到任何其他词元。因此,有O\left ( 1 \right )个顺序操作可以并⾏计算,最⼤路径⻓度也是O\left ( 1 \right )

4、小结

总⽽⾔之,卷积神经⽹络和⾃注意⼒都拥有并⾏计算的优势,⽽且⾃注意⼒的最⼤路径⻓度最短,但是因为其计算复杂度是关于序列⻓度的⼆次⽅(⾃注意⼒具有O\left (n ^{2} d\right )计算复杂性),所以在很⻓的序列中计算会⾮常慢。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值