Self-supervised Learning——BERT

1.Self-supervised Learning

Supervised是要有label的资料

Self-supervised是让资料一部分作为model,一部分作为label

 

2.Masking Input

两种方法,要么随机盖住某个token,要么将此token随机换成别的词。

对其做Linear transform(矩阵)然后进行softmax得到一个分布 

 我们知道盖住的词是什么,BERT不知道,所以看输出的词与原来词的最小交叉熵

 

3.How to use BERT - case1(Sentiment analysis)

 init by pre-train better than random

 Case2(POS tagging词性标注)

Case3 (Natural Language Inference (NLI))

 

premise:前提 ;  hypothesis:假设

根据前提是否能推出假设,如果矛盾输出contradiction…… 

 

 Case4 QA

 

文章document和问题Query都是句子,丢进QA Model里,输出标志s,e。 那么答案就是d_s……d_e

 d_1表示文章里第一个词汇

 橙色表示起始位置,蓝色表示终止位置,是唯二需要随机初始化的

先用橙色向量与document的token输出值进行卷积,得到数值最大的下标作为起始位置

同理,蓝色向量作为终止位置。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值