self-supervised Learning
芝麻街:
340 millon的参数,模型巨大
自监督学习
vs 监督学习
没有标注的资料 一部分作为输入,一部分作为label
没有用到标注的资料
19年提出的
相当于分类问题,从所有中文字中选出湾
做填空题
(像胚胎干细胞)
下游应用:
著名任务集:
应用1:输入句子,输出类别
BERT通过pre-train初始化,在进行fine-tune,效果比随机初始化好
学填空题的阶段 是un-supervised
应用在下游任务时,需要少料有标注的资料
属于semi-supervised
应用2: 等长句子 词性标注
应用3:立场分析
cls:类别,输出类别的任务只输出class,词性标注,输出除cls之外每个词的输出
应用4:问答系统(答案一定出现在文章里)