干货!半监督预训练对话模型 SPACE

达摩院团队提出半监督预训练对话模型SPACE,通过结合少量有标对话数据和大量无标数据,利用一致性正则化注入对话策略知识,提升模型效果。SPACE1.0在多任务对话数据集上表现优越,尤其在低资源设置下展现出强小样本学习能力。
摘要由CSDN通过智能技术生成

点击蓝字

6febd1d896c3752082ce2f093f4cac6b.jpeg

关注我们

AI TIME欢迎每一位AI爱好者的加入!

e01f9e1b193e02c9a2c00cd84ce31287.gif

如何将人类先验知识低成本地融入到预训练模型中一直是个NLP的难题。在本工作中,达摩院对话智能团队提出了一种基于半监督预训练的新训练范式,通过半监督方法将少量有标对话数据和海量无标对话数据一起进行预训练,利用一致性正则化损失函数将标注数据中蕴含的对话策略知识注入到预训练模型中去,从而学习出更好的模型表示。

新提出的半监督预训练对话模型SPACE(Semi-Supervised Pre-trAined Conversation ModEl)首先围绕对话策略知识展开了研究,实验表明,SPACE1.0 模型在剑桥MultiWOZ2.0,亚马逊MultiWOZ2.1等经典对话数据集上能够取得5%+显著效果提升,并且在各种低资源设置下,SPACE1.0 比现有sota 模型都具有更强的小样本学习能力。

本期AI TIME PhD直播间,我们邀请到阿里巴巴达摩院高级算法工程师——戴音培,为我们带来报告分享《半监督预训练对话模型 SPACE》。

c26a04b88af301338eac7da4390ade81.jpeg

戴音培:

阿里巴巴达摩院高级算法工程师,硕士毕业于清华大学电子工程系,研究领域为自然语言处理及对话智能(Conversational AI),具体方向包括对话理解、对话管理和大规模预训练对话模型等。在 ACL / AAAI / SIGIR/ ICASSP 等会议上发表多篇论文并多次担任 ACL / EMNLP / NAACL / AAAI 等会议审稿人。

Pre-trained Conversation Model (PCM)

最近的预训练语言模型Pre-trained Language Model(PLM)可谓是异常火爆,那我们为何还要研究预训练对话模型呢?尽管前者在许多任务上都能带来一定程度的效果提升,但有文章表明通过一些损失函数的设计可以得到更好的预训练模型。预训练对话模型就是针对下游的对话任务设计的模型,其能够在预训练语言模型基础之上得到更好的提升。

72306d28a98dc568db1ae828904b643c.png

预训练语言模型vs.预训练对话模型

• Pre-trained Language Model (PLM) 预训练语言模型

• 需要回答什么样的句⼦更像⾃然语⾔

3abc6200b380ae1eb127dcd02d03ba96.png

• Pre-trained Conversation Model (PCM) 预训练对话模型

• 需要回答给定对话历史,什么样的回复更合理

28bcadb9866bb9c28ec9082af0a662a0.png

相比plain text,对话有哪些特点?

bf0af7139cc35d2834b9868fd513670e.png

Backgrounds

• Task-oriented dialog (TOD) systems help accomplish certain tasks

本研究主要是建立在任务型对话的基础上,相比于普通闲聊对话需要完成特定的任务。

4707b1e65dcb49299d094b3ff115b443.png

如上图所示,一共包含对话理解、对话策略和对话生成一共三个类任务。

预训练对话模型汇总

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值