大模型微调
文章平均质量分 94
山山而川_R
主要自用 有不懂的可以去官网查询
展开
-
ChatGLM2-6B 模型基于 [P-Tuning v2]的微调
修改 `train.sh` 和 `evaluate.sh` 中的 `train_file`、`validation_file`和`test_file`为你自己的 JSON 格式数据集路径,并将 `prompt_column` 和 `response_column` 改为 JSON 文件中输入文本和输出文本对应的 KEY。", "history": [["长城h3风扇不转。"summary": "这件衬衫的款式非常的宽松,利落的线条可以很好的隐藏身材上的小缺点,穿在身上有着很好的显瘦效果。原创 2024-05-26 12:11:51 · 997 阅读 · 0 评论 -
LoRA:大型语言模型的低秩适应
官网常见的大模型微调方法:Adapter-Tuning、Prefix-Tuning、Prompt-Tuning(P-Tuning)、P-Tuning v2、LoRA。原创 2024-05-24 09:32:09 · 314 阅读 · 0 评论