相关教程test

第一天

主题:LLM初体验

上午:
一,大模型的发展背景和模型演进
  • 数据增长和算力提升
  • LSTM到BERT到LLM的参数巨变
  • 最新paper解读
二,大模型核心阶段的认识和理解
  • 预训练(CLM,Scaling Law等)
  • 对齐(SFT,RW,RLHF)
  • 微调(p-tuning,p-tuningV2,Lora等)
下午:
三,大模型核心架构详解Transformer
  • 基本组成部分
  • self-attention中的QKV的含义
  • self-attention中scale的作用
  • self-attention的时间复杂度问题
四,业界为何使用LLM,应该具备的条件?
  • 传统bert-fintuning模式的典型弊端
  • 离线需求场景下的llm提示工程
  • 微调本质上适合在解决哪类问题
  • 什么阶段应该考虑预训练和对齐工程

第二天

主题:必要的提示工程

上午:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

TiSV工作室

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值