李宏毅深度学习 自注意力机制

本文探讨了自注意力机制在解决序列输入输出问题中的应用,特别是在词性标注、语音处理等场景。自注意力允许并行计算,不同于CNN的局部连接和RNN的时间序列依赖。通过位置编码,自注意力能捕捉序列位置信息,广泛应用于NLP、语音和图像处理等领域。
摘要由CSDN通过智能技术生成

一、 自注意力机制解决的问题

1、输入

在这里插入图片描述
输入是一个序列,并且长度会改变的例子:

  • 输入是一个句子
    可以的做法:1、设置一个列表,包括所有的词汇;2、给每个词汇一个向量
    在这里插入图片描述
  • 输入一段语音:
    在这里插入图片描述

2、输出

**第一种可能:**每个向量都有对应的label(输入输出长度相同)eg:词性标注
在这里插入图片描述
第二种可能:整个向量只有一个label
在这里插入图片描述
**第三种可能:**机器自己决定输出多少个Label

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值