#今日论文推荐# NAACL 2022 | DOP-Tuning: 面向对话摘要领域自适应的轻量级微调方法
当前的对话摘要模型往往缺乏在新领域上的泛化性,因为大规模的生成式预训练模型往往需要大量的人工标注的黄金摘要,在 few/no labeled 的场景下无法扩展到新的领域。
当前研究摘要领域迁移的方法需要耗时的预训练和大规模额外的语料库。他们仅关注沉重的预训练步骤而不是轻量化的微调过程。
论文题目:Domain-Oriented Prefix-Tuning: Towards Efficient and Generalizable Fine-tuning for Zero-Shot Dialogue Summarization
详细解读:https://www.aminer.cn/research_report/626759b87cb68b460fa90c51?download=falsehttps://www.aminer.cn/research_report/626759b87cb68b460fa90c51?download=false
AMiner链接:https://www.aminer.cn/?f=cs