【机器学习笔记 Day3】什么是transformer?什么是注意力机制?

本文介绍了注意力机制,特别是Self-Attention和Multi-HeadAttention在处理输入序列关系中的应用,以及Transformer模型如何利用这些机制,重点讲解了高斯核和注意力分数的概念。链接提供了进一步学习的资源。
摘要由CSDN通过智能技术生成

一、注意力机制(Attention)

注意力机制中,函数α是任意能刻画相关性的函数,但是需要归一化。

*高斯核:一种非线性核函数,高斯核函数的作用是衡量两个数据点之间的相似性,距离越近则相似性越高,距离越远则相似性越低。当输入数据点距离足够接近时,高斯核函数的值接近于1;当输入数据点之间的距离较远时,高斯核函数的值接近于0。
在这里插入图片描述

*注意力分数:表示在一个序列中不同位置的元素对于模型预测的重要程度或权重。这些关联程度可以通过不同的方法计算,常见的方法包括点积注意力、加性注意力等。

注意力权重注意力分数归一化
在这里插入图片描述

Self-Attention—只关注输入序列之间的关系

Q请求矩阵、K键矩阵、V值矩阵都是同样的X矩阵,并且可能会对X矩阵做不同的线性变换。
在这里插入图片描述
在这里插入图片描述

Multi-Head Attention

基于自注意力,使用多种矩阵变换生成不同的Q、K、V,最后综合不同的相关性结论,增强自注意力的效果。

二、 Transformer模型

引用

  1. 链接: B站—注意力机制
  2. 链接: B站—自注意力机制
  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值