《深度学习》学习笔记(四)

本篇文章对应的是自注意力机制(上和下)和transformer(上和下)

self-attention

在这里插入图片描述
Vector Set as Input.
声音讯号、Graph等都可以看作是一组向量。

output

在这里插入图片描述
上面的输出与输入是一样的:词性标注POS tagging、HW2(音标)、social graph中每个人的分类结果
在这里插入图片描述
上面的输出是只有一个标签:情感分析(sentiment analysis)、HW4(speaker辨识)、hydrophilicity
在这里插入图片描述
第三种情况是模型自己决定标签的个数。
真正的语音辨识是seq2seq

sequence labeling

细讲第一种情况Each vector has a label.
在这里插入图片描述
带有黑色边框的vector是考虑了整个sequence的信息
在这里插入图片描述

process in detail

a 1 a^1 a1 a 2 a^2 a2两个向量的关联度: α \alpha α有多种计算方式,下面这种是比较常见的,也是transformer中使用的方式。
在这里插入图片描述
关联性计算过程如下:
在这里插入图片描述
在这里插入图片描述
α \alpha α α ′ \alpha' α也不是非一定要用soft-max,relu函数也是可以的。

接下来从 α ′ \alpha' α b 1 b^1 b1,计算公式为: b 1 = ∑ i α 1 , i ′ v i b^1=\sum_i\alpha'_{1,i}v^i b1=iα1,ivi
在这里插入图片描述
在这里插入图片描述
self-attention其实就是在讲如何从a到b,接下来从矩阵的角度讲解:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
O O O就是输出
在这里插入图片描述
需要学习的参数为: W q W^q Wq W k W^k Wk W v W^v Wv

multi-head self-attention

Different types of relevance
翻译或者语音辨识等问题多个head效果要好一些。
在这里插入图片描述
在这里插入图片描述

positional encoding

No position information in self-attention.
Each position has a unique positional vector e i e^i ei
在这里插入图片描述
添加了位置信息。
在这里插入图片描述
目前提出的positional encoding方法有上面几种。

Self-attention v.s. CNN

CNN可以看做简化版的self-attention
在这里插入图片描述
在这里插入图片描述

Self-attention v.s. RNN

在这里插入图片描述

Self-attention for Graph

在这里插入图片描述

transformer

transformer就是seq2seq的model
这就是前面介绍的第三种情况
The output is determined by model.
在这里插入图片描述
世界上有很多语言是没有文字的!!所以语音辨识有些是做不了的,直接speech translation即可。
接下来的部分,就是在介绍seq2seq的应用。
在这里插入图片描述
在这里插入图片描述

Encoder

encoder中一个block如下:
在这里插入图片描述
在这里插入图片描述

Decoder

AT(Autoregressive)

接下来把语音辨识作为例子
1.
在这里插入图片描述
2.“机”这个字作为输入
在这里插入图片描述
在这里插入图片描述
Encoder与Decoder的比较:
在这里插入图片描述
Masked Self-attention
在这里插入图片描述

Decoder -Non-autogressive(NAT)

NAT速度要更快一些,一步产生所有的output
在这里插入图片描述

Transformer

在这里插入图片描述
在这里插入图片描述

training

其实就是很多个分类问题
在这里插入图片描述
在这里插入图片描述
Teacher Forcing: using the ground truth as input.
把正确的答案当作decoder的输入。
Beam Search
在这里插入图片描述
有时候encoder加入随机性之后结果反而会更好。
Accept that nothing is perfect. True beauty lies in the cracks of imperfection.
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值