In-context Learning

  1. formulate the

example + query -> LLM -> answer

no gradient descent and fine-tuning, no parameters update

advantages: 提供了与LLM进行交流的可解释的接口,通过template和demonstration将人类知识和LLM更好的结合;更像人类的预测思维,会根据类比;相比监督学习,更加的training-free。

  1. GPT-3具有较强的ICL能力,这个能力可以通过pretraining进行提升。

  1. 对prompting template、example、example的顺序敏感。

  1. (1) training phase培养大模型的ICL能力 (2) inference stage,根据具体的demonstration预测。

  1. 严格说ICL是prompt learning的子类,其中的demonstration和是prompt的一种,只不过demonstration是很多的xy对构成的。

  1. ICL和few shot learning不一样,因为ICL不需要参数更新。

  1. warmup是介于pretraining和 inference之间的,可选择的,一般是调整llm或者增加一些参数,不同于fine-tune,不会对llm针对具体任务进行训练。

https://arxiv.org/pdf/2301.00234.pdf

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值