- 博客(2)
- 收藏
- 关注
原创 Llama-3 微调 fine tuning 实验记录
权重用的代码用的readme中的教程(博主博主,为什么单独列出来nie,只能说哥们你是藏得真难找呀)
2025-01-04 17:18:42
987
原创 DiT diffusion transformer实验记录
(有些包的需求导致只能在linux中配置,组里的配置为一台半A100,差不多50+G运存)cuda用的11.8的版本,反正不能很低,使用conda install cudatoolkit=11.8.0下载cuda就行Anaconda中下载pytorch,用的2.2版本跟着后面链接教程装的lightning可以直接在pycharm终端里pip的关于flash_attn的安装流程:安装ninja需要Git安装,教程直接安装flash_attn依然失败。
2025-01-03 22:21:32
1039
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人