transformer理解及bert源码解读

一、transformer

也就是encoder-decoder with attention的结构,

参考:

attentnion is all you need:https://arxiv.org/abs/1706.03762

【NLP】Transformer模型原理详解:https://zhuanlan.zhihu.com/p/44121378

详解Transformer (Attention Is All You Need):详解Transformer (Attention Is All You Need) - 知乎

个人理解:

1. 为什么用attention而不是rnn或者cnn

rnn不能并行计算,cnn卷积核只能考虑部分单元(虽然最后也能考虑全局),attention是一种巧妙的设计,将每个位置的输入转换为q,k,v,这样计算出来的输出考虑的全局的注意力,并且参数比较少,只需要学习Wq,Wk,Wv矩阵

2. decoder和encoder区别,以及decoder的解码过程

参考:举个例子讲下transformer的输入输出细节及其他 - 知乎

decoder比encoder多了一个encoder-decoder attention,

训练的时候:

decoder的输入是6层的encoder输出的K和V+decoder应该输出序列Q(mask矩阵),从而实现并行计算。

这个地方一个疑问: decoder是需要上一个序列的输入的,如何实现并行计算

为什么说训练可以并行,因为训练本质上是要计算输入*参数矩阵的输出和实际输出的error,而这个,因为实际输出是知道的,每个位置的error对应的输入序列也是确定的,所以可以并行解决

预测的时候:

decoder输入是6层的encoder输出的K和V+decoder应该输出序列的前t-1个值,非并行的多次迭代,直到预测出<eos>标签就停止

3. 传统seq2seq模型参考

seq2seq模型详解及对比(CNN,RNN,Transformer) - 微笑sun - 博客园

二、 bert源码解读

bert一般是12层网络,512的序列,每个token是768维的向量

假设batch_size=16,max_seq_len=128:

输出层维度

假设labels维度是112

embeding层

encoder12层

每层每一层的BertLayer进行的操作如下,接一个attention+intermediate+output+整合:

每一层输出也是128*768

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
嗨!对于Transformer源码解读,我可以给你一些基本的指导。请注意,我不能提供完整的源代码解读,但我可以帮助你理解一些关键概念和模块。 Transformer是一个用于自然语言处理任务的模型,其中最著名的应用是在机器翻译中。如果你想要深入了解Transformer的实现细节,我建议你参考谷歌的Transformer源码,它是用TensorFlow实现的。 在Transformer中,有几个关键的模块需要理解。首先是"self-attention"机制,它允许模型在处理序列中的每个位置时,同时关注其他位置的上下文信息。这个机制在Transformer中被广泛使用,并且被认为是其性能优越的主要原因之一。 另一个重要的模块是"Transformer Encoder"和"Transformer Decoder"。Encoder负责将输入序列转换为隐藏表示,而Decoder则使用这些隐藏表示生成输出序列。Encoder和Decoder都由多个堆叠的层组成,每个层都包含多头自注意力机制和前馈神经网络。 除了这些核心模块外,Transformer还使用了一些辅助模块,如位置编码和残差连接。位置编码用于为输入序列中的每个位置提供位置信息,以便模型能够感知到序列的顺序。残差连接使得模型能够更好地传递梯度,并且有助于避免梯度消失或爆炸的问题。 了解Transformer源码需要一定的数学和深度学习背景知识。如果你对此不太了解,我建议你先学习相关的基础知识,如自注意力机制、多头注意力机制和残差连接等。这样你就能更好地理解Transformer源码中的具体实现细节。 希望这些信息对你有所帮助!如果你有任何进一步的问题,我会尽力回答。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值