对话模型——只看标题

该文探讨了神经生成方法在面向任务的对话中如何在保持语义准确性的同时,实现风格控制,特别是在个性差异和话语对比方面的表现。研究表明,改进的模型在风格控制上提高了15个BLEU点,语义错误几乎降至零,同时在控制对比度和减少错误方面取得显著进步。
摘要由CSDN通过智能技术生成

Maximizing Stylistic Control and Semantic Accuracy in NLG: Personality Variation and Discourse Contrast

Vrindavan Harrison, Lena Reed, Shereen Oraby, Marilyn Walker

https://arxiv.org/abs/1907.09527

用于面向任务的对话的神经生成方法通常从使用域信息数据库填充的含义表示生成,例如描述餐馆的数据表。虽然早期的工作仅关注输出的语义保真度,但最近的工作已经开始探索控制生成文本的风格同时实现语义准确性的方法。在这里,我们尝试两种风格基准任务,生成表现出个性差异的语言,并产生话语对比。我们报告在这两个基准测试中,在风格控制和语义准确性方面都取得了巨大的性能提升。我们测试了几种不同的模型,并表明在解码器中放置风格条件并消除早期模型中使用的语义重新排序器会导致BLEU个性化程度提高15个以上,语义错误减少到接近零。我们还报告了从0.75到0.81的控制对比度和语义错误从16%减少到2%的改进。

  • SlugBot: Developing a Computational Model andFramework of a Novel Dialogue Genre

标题:SlugBot:开发一种新型对话体裁的计算模型和框架

作者: Kevin K.Bowden, Marilyn Walker

备注:arXiv admin note: text overlap with arXiv:1801.01531

链接:https://arxiv.org/abs/1907.10658

  • Reinforced Dynamic Reasoning for Conversational Question Generation

标题:用于会话问题生成的强化动态推理

作者: Boyuan Pan, Huan Sun

备注:Accepted in ACL 2019

链接:https://arxiv.org/abs/1907.12667

提出来了新任务,根据给定段落以及先前的问题,生成后续的问题

未创建数据集

  • Reinforcement Learning for Personalized Dialogue Management

标题:个性化对话管理的强化学习

作者

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值