- 博客(1)
- 收藏
- 关注
原创 一文彻底搞懂大模型 - Fine-tuning三种微调方式
LoRA(Low-Rank Adaptation)通过分解预训练模型中的部分权重矩阵为低秩矩阵,并仅微调这些低秩矩阵的少量参数来适应新任务。
2024-10-08 16:21:34 532
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
LoRA(Low-Rank Adaptation)通过分解预训练模型中的部分权重矩阵为低秩矩阵,并仅微调这些低秩矩阵的少量参数来适应新任务。
2024-10-08 16:21:34 532
TA创建的收藏夹 TA关注的收藏夹
TA关注的人