微调大语言模型——LLaMa-Factory平台搭建(非常详细)

我们采用 LLaMA-Factory平台进行微调语言模型,详细信息可以访问github主页(https://github.com/hiyouga/LLaMA-Factory)浏览。

租赁显卡

采用AutoDL作为云平台进行微调训练。Win系统采用终端命令行操作的过程差不多。

选择合适的显卡,点击租赁

LLaMa-Factory 所需要的设备软硬件环境要求如下:

MandatoryMinimumRecommend
python3.83.10
torch1.13.12.2.1
transformers4.37.24.38.2
datasets2.14.32.17.1
accelerate0.27.20.27.2
peft0.9.00.9.0
trl0.7.110.7.11
OptionalMinimumRecommend
CUDA11.612.2
deepspeed0.10.00.13.4
bitsandbytes0.39.00.41.3
flash-attn2.3.02.5.5

训练各类模型所需的显存大小:

MethodBits7B13B30B65B8x7B
Full16160GB320GB600GB1200GB900GB
Freeze1620GB40GB120GB240GB200GB
LoRA1616GB32GB80GB160GB120GB
QLoRA810GB16GB40GB80GB80GB
QLoRA46GB12GB24GB48GB32GB

在弹出页面内镜像一栏选择基础镜像,下拉菜单内依据以上要求选择合适的pytorch框架版本、Python版本和Cuda版本。之后点击立即创建。

选择配置

本地平台配置

克隆项目

创建成功后,点击JupyterLab进入终端页面。

进入终端

终端页面如下,点击终端进入命令行页面。

点击终端

再命令行输入以下代码-回车,进行学术资源加速:

source /etc/network_turbo  


再输入以下代码回车,克隆LLaMA-Factory项目:

git clone https://github.com/hiyouga/LLaMA-Factory.git  


稍等一段时间,克隆完成结束后出现以下界面:

完成界面

新建虚拟环境

输入以下代码,创建新环境:

conda create -n llama_factory python=3.10  


中间有过程需要输入y进行确认。

输入以下代码初始化conda:

source /root/miniconda3/etc/profile.d/conda.sh  


输入以下代码激活该环境:

conda activate llama_factory  


如图所示,已经成功激活:

「虚拟环境」

虚拟环境为项目提供了一个隔离的空间,可以避免不同项目依赖的包版本冲突。每个虚拟环境都有自己的依赖包副本,不会影响到其他环境。

之后每次运行都需要激活虚拟环境。

安装依赖库

输入以下代码,进入平台目录:

cd LLaMA-Factory  


输入以下代码,安装所需的库文件

pip install -r requirements.txt  


再安装modelscope

pip install modelscope -U  


启动前端页面

首先下载访问以下链接,下载并解压压缩包:AutoDL-SSH-Tools.zip

https://autodl-public.ks3-cn-beijing.ksyuncs.com/tool/AutoDL-SSH-Tools.zip  


在命令行输入以下代码:

CUDA_VISIBLE_DEVICES=0 python src/train_web.py  


出现如下页面即启动成功,注意端口号为7860

回到解压后的压缩包,打开第一个文件:

回到AutoDL控制台页面,按照下图填入相关信息后,点击开始代理:

点击此网址,即可进入训练平台的前端页面:

前端页面

下载大模型

其他方法见往期推送,现补充一个新的方法:

新建py文件,命名为download.py,代码如下:

from modelscope import snapshot_download  
model_path="qwen/Qwen1.5-7B-Chat"  
cache_path="/root/autodl-tmp"#云平台建议下载到这个目录,是数据盘,可以扩增  
snapshot_download(model_path, cache_dir=cache_path)  


model_path可以更换为huggingface或者modelscope上的模型目录,运行该py文件即可下载

终端运行py文件方法,命令行该文件目录下输入:

python download.py  


模型目录位置

模型下载网站:ModelScope

https://modelscope.cn/  


Huggingface

https://huggingface.co/  


GitHub

https://github.com/  


Gittee

https://gitee.com/  


AI大模型学习福利

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img
因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img
因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享

四、AI大模型商业化落地方案

img

因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享

更多内容为防止和谐,可以扫描获取哦~

请添加图片描述

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文转自 https://blog.csdn.net/Javachichi/article/details/140877888?spm=1001.2014.3001.5502,如有侵权,请联系删除。

  • 15
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值