Transformer

李宏毅Transformer详解,视频链接:https://www.bilibili.com/video/BV1v3411r78R?p=3&vd_source=8de64249f3698ea673fe42aabb025b29

1 Seq2seq应用

  • 语音辨识、
  • 机器翻译、
  • 语音翻译
  • Text to Speech
  • Mutil-label Classification
  • Object Dection

2 Seq2Seq 概述

在这里插入图片描述

图2.1 Seq2Seq简化模型
- Encoder:处理Input seqence,并将处理的结果给Decoder - Decoder决定输出什么样的Sequence

3 Encoder

定义:给出 vector set 输入 vector set,
实现方式:self-attention、RNN、CNN
transformer中的Encoder使用的是self-attention,下面以Transformer模型举例
在这里插入图片描述

图3.1 Transformer Encoder概览
![在这里插入图片描述](https://img-blog.csdnimg.cn/076279d96a9f4961b6486c084eb7d5d0.png)
图3.2 Encoder模块
![在这里插入图片描述](https://img-blog.csdnimg.cn/e32c06a8bb2b4e29971e72f60bb39950.png)
图3.3 Block模块细化模型样例

4 Decoder

在这里插入图片描述

两种

  • Autoregressive(AT)

4.1 Autogressive

Speech Recognition as example

  1. Encoder的输出如何读入Decoder

4.1.1 Decoder如何产生一段文字

  • 开始符号(special token)
    在这里插入图片描述
    在这里插入图片描述

4.1.2 Decoder如何确定输出的长度(output length)

  1. Add ‘end’ token

4.2 Masked Self-Atention

在这里插入图片描述

图4. Self-Attention简略图
每个$b^i$的输出都是看过完整的input之后才做的决定,下面是由Self-Attention 转为Masked Self-Attention之后 ![在这里插入图片描述](https://img-blog.csdnimg.cn/ab3521858c304092a3739c5d525cc1cd.png)
图4. Masked Self-Attention简略图

5 Encoder-Decoder

在这里插入图片描述

图5.1 Encoder-Decoder结构图

在这里插入图片描述

图5.2 Cross-Attention运作过程

6 Training

以语音辨识为例
在这里插入图片描述

注意:训练时Decoder给输入正确答案

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值