《深度学习》学习笔记(六)

本篇博客主要是讲自监督学习的(Self-Supervised Learning)

引入

下面是一些自监督学习的models
在这里插入图片描述
BERT模型340M parameters
ELMO模型94M parameters
GPT-2模型1542M parameters
GPT-3模型175M parameters
Megatron模型8B parameters
Transformer模型1.6T parameters

自监督定义

在这里插入图片描述

BERT

BERT输入一行向量,再输出一行向量
在这里插入图片描述
在这里插入图片描述
BERT要学习mask的地方与“湾”是同一类别的
BERT+Linear一起训练
在这里插入图片描述
但是Next Sentence Prediction好像没啥用?
在这里插入图片描述
BERT还可以做很多下游任务,后面会介绍

GLUE

在这里插入图片描述

为了让NLU(自然语言理解)任务发挥最大的作用,来自纽约大学、华盛顿大学等机构创建了一个多任务的自然语言理解基准和分析平台,也就是GLUE(General Language Understanding Evaluation)GLUE九项任务涉及到自然语言推断、文本蕴含、情感分析、语义相似等多个任务。像BERT、XLNet、RoBERTa、ERINE、T5等知名模型都会在此基准上进行测试。

在这里插入图片描述

Case

pre-train即训练学做填空题的BERT
在这里插入图片描述
BERT是semi-supervised的。因为在下游任务中,需要有标注的资料;但是做self-supervised的时候,是没有标注的。
在这里插入图片描述
在这里插入图片描述
case2跟case1不同的点在于,在pre-train的时候,已经初始化了一组参数。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

其他相关

在这里插入图片描述
在这里插入图片描述

Why does BERT work

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

GPT series

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

其他

self-supervised不仅可以用在文本上,还可以用在图像和语音上。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
self-supervised
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值