Self-Attention-自注意机制

Original paper:

  1. Bahdanau, Cho, & Bengio. Neural machine translation by jointly learning to align and translate. In ICLR, 2015.
  2. Cheng, Dong, & Lapata. Long Short-Term Memory-Networks for Machine Reading. In EMNLP, 2016.

Self-Attention-自注意机制

在此之前,你应该知道:
Simple RNN Model
Long Short Term Memory (LSTM)
Attention-自注意机制
初始:c0 = 0,h0 = 0 (全0向量)
在这里插入图片描述
simple-RNN新的状态ht依赖于新的输入X1和上次状态ht-1
两者不一样的地方在于h0换成了c0
在这里插入图片描述
c1 = h1,
重复以下计算:
在这里插入图片描述

想要计算新的C2:首先得计算hi与h2的相关性ai(相关性计算在上一篇Attention-自注意机制有介绍,这里便不累赘了)
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

不断重复以上过程

通过self-attention自注意,RNN 不太容易忘记且容易关注相关信息。
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值