李宏毅课程-人类语言处理-BERT和它的家族-介绍和微调(下)

读长句子,以及减少平方复杂度
在这里插入图片描述
如何微调
在这里插入图片描述

输入两类,输出四类,一共八类
在这里插入图片描述
输入是多个句子
在这里插入图片描述
输出是一个类别,预训练的时候就定义第一个字符
在这里插入图片描述
没个字符做个分类
在这里插入图片描述
问答系统
在这里插入图片描述
定义一个向量做点乘去softmax
在这里插入图片描述
结束符号
在这里插入图片描述
生成模型,解码没有预训练
在这里插入图片描述
预训练生成模型
在这里插入图片描述
两种训练方式,一致固定预训练,一种整体微调
在这里插入图片描述
每个任务都存储一个大模型,比较复杂,可以只调adapt部分
在这里插入图片描述
在这里插入图片描述
adapt举例说明
在这里插入图片描述
效果比对
在这里插入图片描述
每层可以抽取不同的特征,做相应的融合,融合参数也是可以学习出来的
在这里插入图片描述
大模型,效果越来越好
在这里插入图片描述
训练截断,已经预训练过的模型,很容易就能收敛
在这里插入图片描述
峡谷,泛华能力不强,盆地泛华能力强
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值