部分data2text模型整理

Learning Neural Templates for Text Generation

  1. 本文主要是对decoder进行了改进,使用隐半马尔科夫HSMM模型作为解码器,并用神经网络实现其中所有概率项的参数化。
  2. 在完成模型训练后,可以利用Viterbi算法推断出隐状态序列,并将其获取为模板,因此可以很方便地对模板进行控制并利用模板引导下一步的文本生成。
  3. 性能可以和E2E模型媲美,而且解释性及可控性更强。

Challenges in Data-to-document Generation

  1. 作者采集了大量NBA篮球比赛统计数据以及对应的文字战报,以此发布了新的数据集RotoWire。文本长度更长,可以对输入信息进行一定推理。
  2. 存在逻辑错误,在长文本生成时更加严重
  3. 提出了一种抽取式评价方法,一定程度上弥补BLEU不足

A Deep Ensemble Model with Slot Alignment for Sequence-to-Sequence Natural Language Generation

  1. E2E挑战赛中表现最好的模型。
  2. 亮点包括
    1. 去噪。通过自行构建的启发式slot aligner,剔除训练数据中一些没有被对应文本提及的属性值;
    2. 重排。根据候选文本同数据属性槽的对其结果重新设计排序规则
  3. 模型整体表现非常稳定,输出文本错误较少

End-to-End Content and Plan Selection for Data-to-Text Generation

  1. 在经典seq2seq模型上引入多个解码器,并通过隐变量因子来指定最
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值