AMiner推荐论文:CONVFIT: Conversational Fine-Tuning of Pretrained Language Models

论文地址:
https://www.aminer.cn/pub/614a9eca5244ab9dcbc38c35?f=cs
本文研究会话领域中预训练模型作为编码器的转化。基于Transformer的语言模型、对大型文本数据的预训练,被证明储存了丰富的语义知识。然而,1) 它们在现成使用时不能有效地作为句子编码器,并且 2) 在会话任务之中通常会落后于会话预训练编码器、如意图检测(ID)。在这项工作中,作者提出了 ConvFiT-预训练语言模型的会话微调两阶段任务:先将任意预训练的语言模型转化为通用对话编码器;然后再转化为任务专用的句子编码器 。作者证明了 1) 成熟的会话预训练不是必需的,并且语言模型可以快速转换为有效的会话编码器;2)预训练的语言模型可微调为任务专用的句子编码器,针对特定任务的细粒度语义进行优化。实验表明:基于ConvFiT的语言模型已全面实现了最先进的 ID 性能,特别是在个别设置的最具挑战性的方向上。
AMiner,让AI帮你理解科学!https://www.aminer.cn
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值