Universal Language Model Fine-tuning for Text Classification
Abstract迁移学习在CV方向上产生了重大的影响,而在NLP领域对于特定的任务还需要从头开始训练。于是提出了基于微调的通用语言模型,能够有效的运用于NLP的任务,介绍了基于微调的语言模型的关键技术。在6个文本分类任务中取得了state-of-the-art的结果,并在主要的数据集上减少了18%-24%的错误。Introduction文本分类是一类具有实际应用程序的自然语言处理(NLP)任务。鉴于预训练模型的好处和迁移学习在NLP运用的不成功,提出了基于微调的语言模型,但是需要数百万的文档来实
原创
2021-04-08 21:46:20 ·
216 阅读 ·
0 评论