在AutoDL上部署百川2大模型

在AutoDL上部署百川2大模型


AUTO DL相关

官网地址

  • 选择容器实例

image-20240220103617293

  • 租用新实例

image-20240220103658791

  • 选择配置

image-20240220104216722

我这里选择3090 , 硬盘尽量选择可以扩容的 , CUDA版本尽量高一点

  • 选择镜像

image-20240220131213163

  • 先将机器关机

image-20240220131333664

  • 先扩容一下数据盘

image-20240220131600128

50G就可以了

  • 然后选择无卡模式开机

image-20240220131358486

  • 因为无卡模式下开机费用会变低

image-20240220131441065

  • 使用JupyterLab进行服务器配置

image-20240220131810416

  • 选择终端

image-20240220131920514

终端配置

# 进入到AutoDL提供的数据盘
cd autodl-tmp
# 垃取Baichuan2的代码
git clone https://github.com/baichuan-inc/Baichuan2.git
# 进入文件夹
cd Baichuan2
# 创建一个文件夹,用于存放模型
mkdir model
# 更新apt
apt-get update
# 安装git-lfslfs
apt-get install git-lfs
# 初始化git
git init
# 确认lfs是否安装
git lfs install
# 垃取modelscope平台的Baichuan2-13B模型文件
git lfs clone https://www.modelscope.cn/baichuan-inc/Baichuan2-13B-Chat.git
  • 模型下载完毕后 , 把服务器关机然后带上显卡一起启动
# 进入目录
cd /root/autodl-tmp/Baichuan2
# 安装运行模型所需要的依赖
pip install -r requirements.txt
  • 配置web_demo脚本

image-20240220151937689

# 运行web_demo 端口暴露为 6006
streamlit run web_demo.py --server.port 6006

image-20240220152038068

量化模型

image-20240220153405031

重新启动

streamlit run web_demo.py --server.port 6006

本地访问

# 正常代理
ssh -CNg -L 6006:127.0.0.1:6006 root@connect.beijinga.seetacloud.com -p 42420
# 后台代理
ssh -f -CNg -L 6006:127.0.0.1:6006 root@connect.beijinga.seetacloud.com -p 42420
  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值