微调模型lora

lora

  1. 导入必要的库和模块
    导入各种库,包括 PyTorch、Transformers、DeepSpeed、Modelscope、PEFT 相关模块等。

  2. seed_it 函数
    设置随机种子以确保结果的可重复性,使用多个库设置随机种子以确保所有随机数生成器的确定性。

  3. torch_gc 函数
    清理 GPU 内存,释放未使用的缓存和 IPC 资源。

  4. ModelArguments 数据类
    用于配置模型参数,主要是模型路径。

  5. DataArguments 数据类
    用于配置数据参数,包括训练数据路径和评估数据路径。

  6. TrainingArguments 数据类
    用于配置训练参数,包括缓存目录、优化器、最大序列长度、是否使用 LoRA 和系统提示词。

  7. LoraArguments 数据类
    用于配置 LoRA 微调的参数,包括秩、alpha 参数、dropout 率、目标模块、权重路径、偏置类型和是否使用 QLoRA。

  8. rank0_print 函数
    打印函数,仅在 local_rank 为 0 时打印输出。

  9. preprocess 函数
    数据预处理函数,将输入文本转换为模型可以处理的格式,包括 tokenization 和 padding。

  10. SupervisedDataset
    监督数据集类,用于微调数据集的预处理。

  11. LazySupervisedDataset
    延迟预处理数据集类,在每次获取数据时动态预处理数据。

  12. make_supervised_data_module 函数
    创建数据模块,包括加载和预处理训练和评估数据集。此处合并了多个数据集。

  13. train 函数
    训练函数,加载模型和分词器,配置 LoRA 模型,创建 Trainer 并开始训练。

  14. merge_model 函数
    模型合并函数,将微调后的 LoRA 模型与基础模型合并并卸载。

  15. test_lora_model 函数
    测试微调后的 LoRA 模型,通过一个示例对话来验证模型效果。

  16. __main__ 部分
    主程序入口,设置随机种子,合并两个数据集进行微调,微调后测试生成示

例响应。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值