Attention概述及代码实现

本文详细介绍了Attention机制,包括核心的Key-Value Attention框架、打分函数、多头注意力、结构化注意力和自注意力。重点探讨了点积模型、双线性模型以及自注意力在处理长距离依赖关系中的优势。同时,提供了相关的代码实现参考,帮助理解并应用Attention模型。
摘要由CSDN通过智能技术生成

Attention机制

参考链接:

  1. 【NLP】Attention Model(注意力模型)学习总结(清晰易懂,较全面)
  2. https://jalammar.github.io/illustrated-transformer/(多图,非常经典!)
  3. https://blog.csdn.net/qq_37394634/article/details/102679096(含实现代码)
  4. https://nndl.github.io/
  5. https://github.com/philipperemy/keras-attention-mechanism/tree/0309dbf79da32c0d8d90925660fc4cc7fe53dc8a
  6. https://blog.csdn.net/uhauha2929/article/details/80733255

核心框架(Key-Value Attention):

在这里插入图片描述
将Source中的构成元素想象成是由一系列的<Key,Value>数据对构成,此时给定Target中的某个元素Query,通过计算Query和各个Key的相似性或者相关性,得到每个Key对应Value的权重系数,然后对Value进行加权求和,即得到了最终的Attention数值。所以本质上Attention机制是对Source中元素的Value值进行加权求和,而Query和Key用来计算对应Value的权重系数。

在这里插入图片描述
在这里插入图片 d描述

打分函数:

模型 公式
加性模型 𝑠(𝒙, 𝒒) = v T t a n h ( W x + U q ) v^Ttanh(Wx + Uq) vTtanh(Wx+Uq
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值