大模型基础之简要背景知识

11 篇文章 14 订阅 ¥9.90 ¥99.00

【时间线】

词级别模型:Word2Vec 2013:自监督学习

序列级别模型:RNN 2014:监督学习

注意力机制:2015

Transformer模型:2017:容易并行处理、容易堆叠更深的网络

上下文级别模型:ELMo 2018:自监督学习

预训练语言模型:BERT等 2018:自监督学习

大语言模型:GPT等:自监督学习

【大模型惊艳之处】

2018年后预训练大语言模型的文本理解能力在一些测评上首度超越人类。

发现一个趋势:增加参数和数据是进一步提高模型性能的有效手段。

大模型掌握丰富的知识:世界知识、常识、逻辑推理

只需要少量的提示,或者不需要提示,就能激发模型完成指定的任务。

【大模型的调试机理】

预训练+微调

在预训练阶段,预训练语言模型从大规模未标注的数据中捕获了丰富的知识。

然后,我们可以使用特定任务的训练数据来微调预先训练的语言模型,以适应预先训练的知识。

以上思路是不是和迁移学习有些类似。人类可以应用以前学到的知识去高效处理新的问题,现在人们正在赋予机器类似的能力。特征表示迁移和参数迁移都被用于预训练模型的后续工作。

【什么是微调fine-tune】

普通预训练模型的特点是: 用了大型数据集做训练,已经具备了提取浅层基础特征和深层抽象特征的能力。微调的目的是为了减少从头开始消耗的计算量,减少过拟合,再在特定任务上微调,提升准确率。

模型微调(Finetune)_什么是模型微调_cv_lz的博客-CSDN博客

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

只要开始永远不晚

谢谢打赏~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值