- 博客(2)
- 收藏
- 关注
原创 Datawhale AI 夏令营学习笔记 Task1
预训练语言模型(Pre-trained Language Model, PLM):使用大量的无标注数据预训练双向 LSTM(Bidirectional LSTM, biLSTM)或者Transformer,然后在下游任务上进行微调(Fine-Tuning)。大语言模型(Large Language Model, LLM):基于“扩展法则”(Scaling Law),即通过增加模型参数或训练数据,可以提升下游任务的性能,同时具有小模型不具有的“涌现能力”(Emergent Abilities)。
2024-08-09 14:00:06
216
原创 Datawhale AI夏令营 Task1 笔记
在学习的开始,了解了赛题的基本信息,并了解了文生图的历史与基础知识。4.调整prompt,设置想要的图片风格,依次修改8张图片的描述。PAI说是每小时消耗7个额度,所以一定要记得关闭!2. 进入文件夹,打开baseline文件。Step4:微调结果上传魔塔并关闭PAI。3.安装环境,然后重启kernel。Step3:体验baseline。首先下载下来图片和ckpt文件。1. 下载baseline文件。Step2:创建PAI实例。在图八对部分内容进行修改。Step1:报名赛事。
2024-08-08 20:31:41
74
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人