Self-Attention(笔记,自用)

Self-Attention

Self-Attention

本文为观看哔哩哔哩up主霹雳吧啦Wz深度学习教程记得笔记,图片为视频截图,自用,侵删。

请添加图片描述

  1. Wq,Wk,Wv所有ai共享

  2. q:query,用来match其他ai

    k:key,用于被其他match匹配

    v:value,从ai当中提取得到的信息

  3. 将所有ai连接成为一组向量A,则:

    Q = A*Wq,K = A*Wk,V = A*Wv

Attention公式

请添加图片描述

  1. Q*KT:用矩阵的计算方法计算全部所有每一组ai和aj的关联度请添加图片描述
    请添加图片描述

  2. 上一步算出的每一个αi j 分别与v1 - vn 相乘,算出bi - bn ,bi是一个向量,表示ai与a1 - an的关联程度。

    请添加图片描述

multi-head self-Attention

由于每个ai和aj,可能是由于不同的原因关联起来,也就是说某两对aiaj关联度都很大,但他们关系密切可能是由于不同的原因,所以为了表达这种情况,提出了multi-head self-Attention(多头)。

将qi,ki,vi向量都平均分成n个,分给n个head使用,例如:每个qi分成qi1 - qin ,每一个qi1,ki1,vi1分给head1,qi12,ki2*,vi2分给head2…以此类推。

请添加图片描述

这样的话就将数据按n个head分成n部分,每一部分都按Attention公式分别计算,计算出的结果拼接起来(注意是拼接)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值