Transformer

假设这里我们的任务还是从中文翻译成英文。
positional encoder:在普通的seq2seq模型中我们会使用embedding来给每个输入字符在embedding space中找定位置,从而让相似的词拥有相似的向量。但是同一个词在句子的不同位置也往往有不同的意思,因此这里就引入了postitional coding,基本就是通过公式计算出来字符在sentence中位置的表达向量。然后结合positional encoding和embedding来构成一个新的包含位置信息的embedding。
然后就是self attention,这个是为了获得当前字符于其他字符的关联性。也即每个中文字符与其他中文字符的关联性。这里会出现的问题是每个word可能和自己的相关性太高,导致attention weight价值低,所以这里就引入了multihead attention,意思是同时对word做多个attention,然后用这些attention做加权平均,来得到最终的attention weight.
feed forwared:这个就是个线性模型,目的就是把attention的输出调整成适合下一层的输入。
decoder:
decoder中我们会先输入英语的embedding,然后也加上position information。
然后和encoder中一样,使用self attention,然后将这里的输出和encoder里的输出一起输入下一层。不过这里的self attention是加了mask的,加的mask是将所有还未出现的word的embedding都调成0,这样的原因是如果不加mask的话,那么每次输出都是一模一样的,会导致网络学不到任何东西。
encoder-decoder-attention:这里对decoder输出的内容和encoder输出的内容
一起做attention,可以得到每个中文字符对应每个英文字符的attention weight。这里就是可以得到中文和英文一一对应的重要性
最后得到的输出经过几个线性层就可以得到输出了,我们得到的输出是对于下一个词的预测,是基于softmax的,就是从多个候选中选出最合适的那个词。不断将预测出的值输入decoder知道生成了最后一个word。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值