#今日论文推荐# NAACL 2022 | DOP-Tuning: 面向对话摘要领域自适应的轻量级微调方法

#今日论文推荐# NAACL 2022 | DOP-Tuning: 面向对话摘要领域自适应的轻量级微调方法

当前的对话摘要模型往往缺乏在新领域上的泛化性,因为大规模的生成式预训练模型往往需要大量的人工标注的黄金摘要,在 few/no labeled 的场景下无法扩展到新的领域。
当前研究摘要领域迁移的方法需要耗时的预训练和大规模额外的语料库。他们仅关注沉重的预训练步骤而不是轻量化的微调过程。

论文题目:Domain-Oriented Prefix-Tuning: Towards Efficient and Generalizable Fine-tuning for Zero-Shot Dialogue Summarization
详细解读:https://www.aminer.cn/research_report/626759b87cb68b460fa90c51?download=falseicon-default.png?t=M3K6https://www.aminer.cn/research_report/626759b87cb68b460fa90c51?download=false
AMiner链接:https://www.aminer.cn/?f=cs

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值