通俗易懂的attention理解与代码实现

本文详细解释了Attention机制,从基本的理解到Encoder-Decoder框架的应用,再到通过Query、Key、Value的解读,深入浅出地剖析了Attention的工作原理。同时,介绍了Self-Attention的概念,并提供了相关资源供进一步学习。
摘要由CSDN通过智能技术生成

1 Ateintion理解

输入句子每个单词对于生成序列的某个单词有多大的影响程度
论文A Neural Attention Model for Sentence Summarization使用注意力机制来生成摘要,可以看下面这个图来帮助理解注意力。
Encoder-Decoder框架的输入句子 X X X是: “ r u s s i a n / d e f e n s e / m i n i s t e r / i v a n o v / c a l l e d / s u n d a y / f o r / t h e / c r e a t i o n / o f / a / j o i n t / f r o n t / f o r / c o m b a t i n g / g l o b a l / t e r r o r i s m ” “russian / defense / minister/ ivanov/ called / sunday / for /the /creation /of /a/ joint/ front /for /combating/ global/ terrorism” russian/defense/minister/ivanov/called/sunday/for/the/creation/of/a/joint/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值