【笔记】大模型,大资料

大模型,大资料,loss会降低,准确率会增加

1大模型

1.1模型的顿悟时刻

 举了一个一知半解的例子

1.2 模型

chain of thought

模型足够大时才会有比较好的作用 

calibration

检测模型对于答案的confidence

会出现 “u-shape”

 2.大资料

文法和对世界了解需要的数据量不相同

 2.1 资料的前处理

重复训练资料,避免模型硬背

2.2 运算资源固定

 

给出了在一定资源情况下,数据量和参数量的合理配比。

小模型大资料  完胜 大模型小资料

【LLaMA】也是参考了这种思想

2.3  模型调整

2.3.1 instruction-tuning

对于对应问题的finetune

2.3.2 整体架构

pretrained -> finetune ->reinenforce learning

 

 (1)小模型finetune效果会比大模型好

 (2)小模型reinenforce learning效果会比大模型好

3. 跳出“大模型大资料”

3.1 knn lm

常规: 

当成分类问题来解决

KNN LM

(1)求目标和源向量

(2)求目标和源之间距离

 红色框:与常规方式搭配(加权)使用

3.1.1 缺点

inference 时间太久了

 3.2 RETRO

通过查询避免模型记忆(比如Π的数值)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值