ChatGLM-Efficient-Tuning 教程

ChatGLM-Efficient-Tuning 教程

ChatGLM-Efficient-TuningFine-tuning ChatGLM-6B with PEFT | 基于 PEFT 的高效 ChatGLM 微调项目地址:https://gitcode.com/gh_mirrors/ch/ChatGLM-Efficient-Tuning

1. 项目介绍

ChatGLM-Efficient-Tuning 是一个基于 Hugging Face Transformers 和 PyTorch 的项目,旨在高效地微调大型语言模型 ChatGLM-6B,尤其是通过使用 PEFT(Prompt Engineering Fine-Tuning)技术进行优化。这个项目提供了从数据预处理到训练、评估以及推理的一系列工具,使得开发者能够轻松地在本地或Web环境中训练自己的ChatGLM模型。

此外,项目还支持FastEdit,这是一个方便的知识编辑工具,可以更有效地更新模型中的事实信息。它兼容ChatGPT风格的应用程序接口,并且支持4位LoRA(QLoRA)训练,以降低计算资源的需求。

2. 项目快速启动

安装依赖

确保你已经安装了Python和Git,然后运行以下命令来安装项目所需的库:

pip install -r requirements.txt

数据准备

首先,你需要获取训练数据并将其放在data目录下。例如,你可以下载COIG等指令型对话数据集。

微调模型

以下是使用默认配置微调ChatGLM-6B的示例:

python train.py --model_name_or_path chatglm/6b --output_dir output_model --do_train --fp16

在Web界面上进行微调

如果你想在Web浏览器中进行微调,运行:

python train_web.py

然后在浏览器中打开显示的URL以交互式地调整模型。

3. 应用案例和最佳实践

  • 聊天机器人开发:利用微调后的ChatGLM-6B构建个性化的聊天机器人。
  • 文本生成:生成高质量的自然语言文本,如文章摘要、故事片段等。
  • 知识问答:结合FastEdit功能,实时修正模型中错误的信息,提升问答质量。

为了获得最佳效果,建议在微调过程中采用多轮迭代,逐步优化提示(prompt)和训练策略。

4. 典型生态项目

  • LLaMA-Factory: 提供更大规模语言模型的微调和支持,是ChatGLM-Efficient-Tuning的一个扩展和维护版本。
  • Hugging Face Hub: 可以在这里发布和分享你的微调模型,与其他开发者互动。
  • PEFT库: 包含各种提示工程技巧,可进一步提升模型性能。

以上便是对ChatGLM-Efficient-Tuning的简要教程。若需更详细的信息,可以参考项目的README.md文件以及相关Wiki页面。祝你在使用过程中一切顺利!

ChatGLM-Efficient-TuningFine-tuning ChatGLM-6B with PEFT | 基于 PEFT 的高效 ChatGLM 微调项目地址:https://gitcode.com/gh_mirrors/ch/ChatGLM-Efficient-Tuning

  • 7
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
ChatGLM-6B源码是基于GLM的2D位置编码实现的。该位置编码的详细原理可以在原文《GLM: General Language Model Pretraining with Autoregressive Blank Infilling》中找到。在GitHub上,有一个微调ChatGLM-6B项目的代码库,作者是mymusise。该项目使用Stanford Alpaca的52K数据集,并通过LoRA(低秩适应)的方式进行微调。在评测时,使用中文Rouge分数和BLEU-4指标,并将生成的结果保存在"./output/adgen-chatglm-6b-pt-8-1e-2/generated_predictions.txt"文件中。 以上是关于ChatGLM-6B源码的一些解读。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [ChatGLM-6B模型结构组件源码阅读](https://blog.csdn.net/yjh_SE007/article/details/130728164)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [ChatGLM-6B的基座/部署/微调/实现:从GLM到6B的LoRA/P-Tuning微调、及6B源码解读](https://blog.csdn.net/v_JULY_v/article/details/129880836)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

章瑗笛

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值