Attention机制

一、什么是注意力机制
Attention机制:又称为注意力机制,顾名思义,是一种能让模型对重要信息重点关注并充分学习吸收的技术,它不算是一个完整的模型,应当是一种技术,能够作用于任何序列模型中。
Attention的本质就是:从“关注全局”到“关注重点”。比如
图片
从这个图上我们可以看出,我们大部分人第一眼看到的肯定是“锦江饭店”,相信很少有人第一眼就关注到了图片左下角的一个小超市,这就是注意力机制。

二、什么是注意力计算规则
它需要三个指定的输入Q(query), K(key), V(value), 然后通过计算公式得到注意力的结果, 这个结果代表query在key和value作用下的注意力表示. 当输入的Q=K=V时, 称作自注意力计算规则。Q就是我们要询问的问题,K,V是其生成的值。
在这里插入图片描述

三、self-attention

3.1 前沿知识
我们平常是输入一个向量,通过模型处理后得到一个编码,但是如果输入是多个向量我们改如何表示呢?
在这里插入图片描述
这里介绍了两种方式
(1ÿ

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值