李宏毅2021机器学习笔记(十一)

本文介绍了自注意力机制(Self-attention)在处理可变长度输入,如文字处理、语音识别和社交网络推荐等问题中的应用。自注意力允许模型考虑输入序列中所有元素之间的关联,避免了传统方法如RNN的序列依赖问题。文章详细阐述了自注意力的计算过程,并提到其在NLP、语音识别和图像处理中的使用,包括位置编码和Transformer模型的改进。
摘要由CSDN通过智能技术生成

自注意力机制(Self-attention)

之前我们CNN的时候还是给定大小的矩阵,但是如果说我们的矩阵输入是可变的呢??那要怎么做??

举个简单的例子:文字处理。

我们把每一个单词都视作一个Vector,那么一个句子就是一个大小不固定的Matrix

最蠢的做法是 One-hot Encoding

 也就是说:如果有n个单词,我就搞一个n维向量

而且你看不到词汇之间的关系:如动物,单复数等

还有一种是Word Embedding

这个 最直观的表现就是动物在一团,植物在一团

再举个例子:语音识别

取25ms做一个frame 。然后经过一些神秘的处理,变成一个Vector。如下

接着 

然后往右移动10ms。 (25和10都是古圣先贤帮你调好的)

再比如GNN了,Social Network就是一个Matrix,且随机。每一个节点是一个Vector,性别啊工作啊等等。

再说化学中,每个原子就是一个Vector,当然元素周期表是很少的,就可以用One-hot vector表示

接下来讲:怎样输出??

输入n个Vector,输出n个Vector。而且输出的可能是Scale也可以是Cl

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值