attention 和 self-attention

本文探讨了注意力机制的核心组成部分QKV,区分了self-attention中QKV的相等性来源,以及cross-attention中Q和V的不同源特性。重点强调了QKV的生成过程和注意力模型的应用方式。
摘要由CSDN通过智能技术生成

attention机制是一个比较宽泛的概念,简单来说只要QKV相乘就是注意力机制,但是并没有说明QKV是怎么来的

没有规定QKV怎么来,规定了QKV怎么做

attention是包括了self-attention的

self-attention的QKV本质是是相等的,是由一个值分别进行线性变换后得到的

cross attention

Q和V不同源,K和V同源

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值