【NLP11-迁移学习】

1、了解迁移学习中的有关概念
1.1、预训练模型(pretrained model)

一般情况下预训练模型都是大型模型,具备复杂的网络结构,众多的参数量,以及在足够大的数据集下进行训练而产生的模型。在NLP领域,预训练模型往往是语言模型,因为语言模型的训练是无监督的,可以获得大规模语料,同时语言模型又是许多典型的NLP任务的基础,如机器翻译、文本生成、阅读理解等。常见的预训练模型有BERT,GPT,roBERTa,transformer-XL等。

1.2、微调(Fine-tuning)

根据给定的预训练模型,改变它的部分参数或者为其新增部分输出结构后,通过在小部分数据集上训练,来使整个模型更好的适用特定任务

1.3、微调脚本(Fine-tuning script)

实现微调过程的代码文件。这些脚本文件中,应包括对预训练模型的调用,对微调参数的选定以及对微调结构的更改等。同时,因为微调是一个训练过程,她同样需要一些超参数的设定,以及损失函数和优化器的选取等,因此微调脚本往往也包含了整个迁移学习的过程。

1.4、关于微调脚本的说明

一般情况下,微调脚本应该由不同的任务类型开发者自己编写,但是由于目前研究NLP任务类型(分类、提取、生成)以及对应的微调输出结构都是有限的,有些微调方式已经在很多数据集上被验证有效的,因此微调脚本也可以使用已经完成的规范脚本

2、两种迁移方式

直接使用预训练模型,进行相同任务的处理,不需要调整参数或模型结构,这些模型开箱即用。但是这种情况一般只适用于普适任务。如fasttest工具包预训练的词向量模型。另外,很多预训练模型开发者为了达到开箱即用的效果,将模型结构分各个部分保存为不同的预训练模型,提供对应的加载方法来完成特定目标。

更加主流的迁移学习方式是发挥预训练模型特征抽象的能力,然后再通过微调的方式,通过训练更新小部分参数以此来适应不同的任务。这种迁移方式需要提供小部分的标注数据来进行监督学习。

说明:

直接使用预训练模型的方式,已经在fasttext的词向量迁移中学习。

3、NLP中标准数据集

NLP中GLUE标准数据集合的介绍

GLUE是由纽约大学,华盛顿大学,google联合推出,涵盖不同NLP任务类型,截至至2020年1月,其中包含11个子任务数据集,成为衡量NLP研究发展的衡量标准。

GLUE数据集包含以下数据集

  • CoLA 数据集
  • SST-2 数据集
  • MRPC 数据集
  • STS-B 数据集
  • QQP 数据集
  • MNLI 数据集
  • SNLI 数据集
  • QNLI 数据集
  • RTE 数据集
  • WNLI 数据集
  • diagnostics数据集(官方未完善)

下载数据集

  • 8
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值