【转载】【ChatGLM3】(7):在autodl上,使用A50显卡,使用LLaMa-Factory开源项目对ChatGLM3进行训练,非常方便的,也方便可以使用多个数据集

本文介绍了LLaMa-Factory开源项目如何方便地在A50显卡上训练ChatGLM3,对比P-Tuning,LLaMA-Factory的LoRA微调提供更快的训练速度和更好的广告文案生成性能。项目支持多模型和资源优化,包括4比特量化技术的QLoRA微调,显存消耗降低。
摘要由CSDN通过智能技术生成

转载链接:https://blog.csdn.net/freewebsys/article/details/134788578

【ChatGLM3】(7):在autodl上,使用A50显卡,使用LLaMa-Factory开源项目对ChatGLM3进行训练,非常方便的,也方便可以使用多个数据集

1,视频地址

https://www.bilibili.com/video/BV1GN411j7NP/

模型训练利器,使用LLaMa-Factory开源项目,对ChatGLM3进行训练,特别方便,支持多个模型,非常方方便

更多ChatGPT技术文章:

https://blog.csdn.net/freewebsys/category_12270092.html

1,关于LLaMa-Factory项目

项目地址:
https://github.com/hiyouga/LLaMA-Factory

LLaMA Board: 通过一站式网页界面快速上手 LLaMA Factory
使用 CUDA_VISIBLE_DEVICES=0 python src/train_web.py 启动 LLaMA Board。(该模式目前仅支持单卡训练)

与 ChatGLM 官方的 P-Tuning 微调相比,LLaMA-Factory 的 LoRA 微调提供了 3.7 倍的加速比,同时在广告文案生成任务上取得了更高的 Rouge 分数。结合 4 比特量化技术,LLaMA-Factory 的 QLoRA 微调进一步降低了 GPU 显存消耗。

2,安装LLaMa-Factory

先下载git 代码,然后执行安装:

git clone https://github.com/hiyouga/LLaMA-Factory.git 
cd /LLaMA-Factory 
pip3 install -r requirements.txt

参考文档:
https://github.com/hiyouga/LLaMA-Factory/blob/main/README_zh.md

然后启动项目:

python3 src/train_web.py

可以修改代码中的端口:

from llmtuner import create_ui  

def main():
	demo = create_ui()
	demo.queue()
	demo.launch(server_name="0.0.0.0",server_port=6006, share=False, inbrowser=True)
	
if __name__ == "__main__":
	main()

3,启动成功

就可以看到界面了:

选择完成就可以预览脚本了:

然后就可以执行了。
过一会就可以看到过程图了:

可以展示进度百分百,和曲线了。确实非常方便。

GPU使用在23G左右:

在这里插入图片描述

资源消耗:

在这里插入图片描述

4,总结

工具还是非常的简单,可以把机构参数进行设置下。
主要就是把参数可视化,同时把结果也可视化。
非常的方便。进度也可以看到。
支持很多模型:

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值