ChatGLM-Efficient-Tuning 项目教程

ChatGLM-Efficient-Tuning 项目教程

ChatGLM-Efficient-TuningFine-tuning ChatGLM-6B with PEFT | 基于 PEFT 的高效 ChatGLM 微调项目地址:https://gitcode.com/gh_mirrors/ch/ChatGLM-Efficient-Tuning

1. 项目的目录结构及介绍

ChatGLM-Efficient-Tuning/
├── assets/
├── data/
├── examples/
├── src/
├── tests/
├── .gitattributes
├── LICENSE
├── README.md
├── README_zh.md
├── pyproject.toml
├── requirements.txt
└── setup.py
  • assets/: 存放项目相关的资源文件。
  • data/: 存放数据文件,用于模型训练和评估。
  • examples/: 包含一些示例代码,展示如何使用项目。
  • src/: 项目的源代码目录。
  • tests/: 存放测试代码,用于确保项目功能的正确性。
  • .gitattributes: Git属性配置文件。
  • LICENSE: 项目的许可证文件。
  • README.md: 项目的英文介绍文档。
  • README_zh.md: 项目的中文介绍文档。
  • pyproject.toml: 项目构建配置文件。
  • requirements.txt: 项目依赖的Python包列表。
  • setup.py: 项目的安装脚本。

2. 项目的启动文件介绍

项目的启动文件通常位于src/目录下,具体文件名可能因版本更新而有所变化。以下是一个假设的启动文件示例:

# src/main.py

import argparse
from src.trainer import Trainer

def main():
    parser = argparse.ArgumentParser(description="ChatGLM Efficient Tuning")
    parser.add_argument("--config", type=str, required=True, help="Path to the configuration file")
    args = parser.parse_args()

    trainer = Trainer(args.config)
    trainer.train()

if __name__ == "__main__":
    main()
  • main.py: 项目的启动文件,负责解析命令行参数并启动训练过程。
  • Trainer: 训练器类,负责模型的训练逻辑。

3. 项目的配置文件介绍

项目的配置文件通常是一个JSON或YAML文件,用于定义模型训练的各种参数。以下是一个假设的配置文件示例:

{
    "model_name": "ChatGLM-6B",
    "batch_size": 32,
    "learning_rate": 0.0001,
    "epochs": 10,
    "data_path": "data/train.json",
    "output_dir": "outputs/"
}
  • model_name: 模型名称。
  • batch_size: 批处理大小。
  • learning_rate: 学习率。
  • epochs: 训练轮数。
  • data_path: 训练数据路径。
  • output_dir: 输出目录,用于保存训练结果。

以上内容基于假设的文件结构和内容,具体项目可能有所不同。请根据实际项目文件进行调整。

ChatGLM-Efficient-TuningFine-tuning ChatGLM-6B with PEFT | 基于 PEFT 的高效 ChatGLM 微调项目地址:https://gitcode.com/gh_mirrors/ch/ChatGLM-Efficient-Tuning

  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
ChatGLM-6B源码是基于GLM的2D位置编码实现的。该位置编码的详细原理可以在原文《GLM: General Language Model Pretraining with Autoregressive Blank Infilling》中找到。在GitHub上,有一个微调ChatGLM-6B项目的代码库,作者是mymusise。该项目使用Stanford Alpaca的52K数据集,并通过LoRA(低秩适应)的方式进行微调。在评测时,使用中文Rouge分数和BLEU-4指标,并将生成的结果保存在"./output/adgen-chatglm-6b-pt-8-1e-2/generated_predictions.txt"文件中。 以上是关于ChatGLM-6B源码的一些解读。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [ChatGLM-6B模型结构组件源码阅读](https://blog.csdn.net/yjh_SE007/article/details/130728164)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [ChatGLM-6B的基座/部署/微调/实现:从GLM到6B的LoRA/P-Tuning微调、及6B源码解读](https://blog.csdn.net/v_JULY_v/article/details/129880836)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

尤峻淳Whitney

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值