- 博客(6)
- 收藏
- 关注
原创 Datawhale X 魔搭 AI夏令营 - 学习笔记 - Task3
LoRA (Low-Rank Adaptation) 微调是一种用于在预训练模型上进行高效微调的技术。它可以通过高效且灵活的方式实现模型的个性化调整,使其能够适应特定的任务或领域,同时保持良好的泛化能力和较低的资源消耗。这对于推动大规模预训练模型的实际应用至关重要。
2024-08-17 14:40:11 315
原创 Datawhale X 魔搭 AI夏令营 - 学习笔记 -task2
相信很多人已经用到这个AI助手了,这里就不多进行介绍。接下来我们运用他的功能精读task1的baseline1. **环境准备**:- 安装所需的Python包,例如`simple-aesthetics-predictor`, `data-juicer`, `peft`, `lightning`, `pandas`, `torchvision`等。- 卸载并重新安装某些特定版本的包,例如卸载`pytorch-lightning`再安装其他依赖。
2024-08-14 11:16:10 830
原创 Datawhale X 魔搭 AI夏令营 - 学习笔记
阿里云 × ModelScope(阿里云提供算力,ModelScope使用模型)4,调整prompt,设置你想要的图片风格,依次修改图片的描述(正向描述词:你想要生成的图片应该包含的内容。2,进入文件夹,打开baseline文件。反向提示词:你不希望生成的图片的内容。3 ,安装环境,然后重启kernel。1,下载baseline文件。4,写笔记,完成 Task1 打卡。2,熟悉魔搭相关文生图工具&应用。1,学习文生图相关原理。3,完成可图故事赛体验。2,AI文生图相关概念。3,可图模型及微调简介。
2024-08-10 15:21:53 409
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人