LLM:Vicuna 13B 环境配置(7B需要14G显存,13B需要28G显存)

租用服务器3090

配置Fastchat
  GitHub项目源地址:https://github.com/lm-sys/FastChat

先进行依赖包安装

pip3 install fschat


下载项目到本地,慢的话可以自己下载好通过FTP上传到服务器

git clone https://github.com/lm-sys/FastChat.git
cd FastChat


升级pip并安装依赖包

# 不升级pip会报错,下面两种方式二选一
python3 -m pip install --upgrade pip # 方式一
pip3 install --upgrade pip     # 方式二

# 升级之后运行下面命令进行安装
pip3 install -e .

配置transformers

# 下载transformers包
git clone https://github.com/huggingface/transformers.git

# 进入transformers目录
cd transformers

# 安装transformers
pip3 install -e .

上传模型权重——使用阿里云盘上传到数据盘(自己提前下载模型权重并保存到自己的阿里云盘)

 启动vicuna-13b模型

# 显卡有28G显存用此命令
python3 -m fastchat.serve.cli --model-path /root/autodl-tmp/vicuna-13b 

# 显卡不足28G显存用此命令
python3 -m fastchat.serve.cli --model-path /root/autodl-tmp/vicuna-13b --load-8bit 

# /root/autodl-tmp/vicuna-13b 为模型权重路径,可以根据自己的情况替换为自己的路径

运行成功(7B和33B部署流程也一样,只是每个模型所需要的显存不一样,需要不同配置的显卡)

  • 9
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值