对话预训练_DialoGPT:大规模预训练的对话响应模型

DialoGPT是微软开发的一种对话响应生成模型,通过在1.4亿条Reddit对话数据上训练,改进了GPT-2,能生成相关、内容丰富且一致的对话。它在多个基准上表现优越,接近人类水平。模型通过最大互信息评分优化,可处理复杂的对话挑战。
摘要由CSDN通过智能技术生成

作者 | 余梁

审稿 | 陈梓豪

指导 | 闵小平(厦门大学)

f0ce41ac4975321cc6a1603633a84d60.png

今天给大家介绍的是由微软Yizhe Zhang等人发表在arXiv上的文章”DialoGPT: Large-Scale Generative Pre-training for Conversational Response Generation”,此文已被ACL 2020接收。

本文介绍了一种大规模、可调整的神经对话响应生成模型DialoGPT(dialogue generative pre-trained transformer),模型在从2005年至2017年Reddit评论链中提取的1.4亿条会话交流的数据上进行训练。DialoGPT扩展了Hugging face transformer模型来实现接近人类的表现。相比于基准系统,DialoGPT生成的文本更相关,更有内容,更具有一致性。

1

介绍

最近,利用基于transformer架构进行大规模预训练的模型都取得了很大的成功。例如,OpenAI的GPT-2证明了在大规模数据集训练的transformer模型可以捕捉文本数据中的长期依赖关系,并且可以生成流畅、词汇多样、内容丰富的文本。

DialoGPT扩展了GPT-2来应对对话神经响应生成(conversational neural response generation model)遇到的挑战。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值