Transformer系列 _8 Attention 笔记2021-06-29

Attention

在这里插入图片描述
在这里插入图片描述
BLEU机器翻译的评判,越高翻译的越好。
在这里插入图片描述

用attention改进seq to seq模型

在这里插入图片描述
在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
c0 是前面H 所有状态的加权平均,c0也能知道前面所有信息。
利用c0和x1’做输入得到s1,s1和前面的所有h状态做align()得到一系列a1…am新的权重,然后再与状态h做加权平均。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
attention 的时间复杂度o(mt)。
在这里插入图片描述
每条线对于一个a权重,越粗代表 两个状态越相似。

summary

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值