自编码模型与自回归模型记录

自回归模型

        处理自然语言时,通常会从左到右的计算前后词汇间的概率,如n-gram,此时只考虑了前文词汇的影响,如果从右到左的增加后文词汇的影响时,则称为自回归模型,如使用单向 transformer 的GPT模型,或拼接的双向LSTM模型等。

自编码模型

        训练时随机 MASK掉文本中的词汇,根据上下文预测该 MASK词汇的模型,如 Bert。

对比

自回归模型不能自然的同时获取单词的上下文信息(拼接两个方向的LSTM效果不佳);自编码语言模型能把上下文信息融合到模型中,Bert中的Transformer含有整句文本信息,等价于双向语言模型,但在Fine-tune时模型看不到MASK标记,会带来误差,可尝试XLNet模型解决上述问题。

参考:

自回归(Autoregressive)和自编码(Autoencoder)语言模型_郝同学的博客-CSDN博客

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值