20200217-20200223阅读论文笔记

本文笔记探讨了在文本生成任务中,自回归与非自回归模型之间的训练目标(log-likelihood)与评估指标(Bleu)的相关性。在相同类型模型中两者相关性强,不同类型则不明显。此外,自我训练在提高生成任务性能方面发挥作用,论文通过噪声和解码策略实验揭示其原因。最后,针对似然性训练导致的文本退化问题,提出了Nucleus Sampling和unlikelihood training等解冑策略。
摘要由CSDN通过智能技术生成

On the Discrepancy between Density Estimation and Sequence Generation

问题:探究训练目标(log-likelihood)和实际文本生成评价指标(Bleu)之间的相关性关系。

背景知识总结:

Autoregressive Model:逐词翻译—>exposure bias
Non-autoregressive Model:一次翻译整个句子---->引入隐变量

论文方法:
基于多个数据集实现以下模型:
(1)自回归:Transformer(S,B,L)
(2)非自回归:隐变量先验为diagonal gaussian和Normalizing Flow

实验结果及结论与思考:
在这里插入图片描述
(1)同一类型的模型进行比较时, ll的训练目标和bleu的评价指标相关性很强。(显然的?)
(2)不同类型的模型之间进行比较时,没有什么相关性。(在非自回归效果一般差于自回归的情况下,关于这点结论不太清楚想要说明什么,邹博的看法是要看ll是不是因地制宜?但这个结论可以看出来非自回归模型在受除训练目标的其他因素影响而效果比自回归模型差ÿ

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值