GLM-6B部署手册

硬件环境

GPUNVIDIA 3090
CPUIntel Xeon Gold 6271C, 2.6GHz, 10 Core
内存40G
显存24G
系统盘150G SSD
浮点算力FP32 35.6 TFLOPS

软件环境

python3.10
cuda11.6
cudnn8

部署流程

1.购买服务器并安装镜像

本部署基于揽睿星舟-GPU算力平台(https://www.lanrui-ai.com/

  • 注册并登录后进入控制台,创建工作空间

在这里插入图片描述

  • 选择对应的服务器配置

点击使用,并选择对应的镜像和预训练模型,完成环境搭建
在这里插入图片描述
在这里插入图片描述

2.部署GML-6B
  • Git加速配置

执行下面2条命令,设置git学术资源加速

git config --global http.proxy socks5h://172.16.16.39:8443
git config --global https.proxy socks5h://172.16.16.39:8443
  • 下载ChatGLM源代码

进入Jupyter的页面后,可以看到2个目录,对目录做下说明:

data目录,存放数据,平台共享的

imported_models目录,存放预训练模型,即创建工作空间时你选择的模型

点击data目录下,可以看到ChatGLM-6B文件夹,里面是ChatGLM的源代码

如果没有ChatGLM-6B目录,那么我们这一步需要下载代码,

操作如下: 页面打开一个Terminal终端,在Terminal终端执行命令 下载ChatGLM源代码

git clone https://github.com/THUDM/ChatGLM-6B.git
  • 安装依赖

执行命令切换到ChatGLM-6B的目录

cd ChatGLM-6B

接着修改requirements.txt文件,把后续所有需要的依赖都加上,下面的配置加在文件末尾即可,如果文件里已加上这3个依赖,无需再修改

chardet
streamlit
streamlit-chat

加完之后save保存下文件,如图
在这里插入图片描述

接着命令行执行下面命令安装依赖,如果报错ERROR: Could not install packages due to an OSError: Missing dependencies for SOCKS support,执行sudo su切换root用户再执行以下命令即可

# 使用默认镜像源下载会超时,这里用了清华的pip镜像源地址
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/
3.修改启动脚本
  • 修改web_demo2.py文件中的模型加载地址为本地目录

在这里插入图片描述

改为
在这里插入图片描述

4.启动
  • 在ChatGLM-6B目录下,命令行执行
python3 -m streamlit run ./web_demo2.py --server.port 27777 --server.address 0.0.0.0
  • 看到如下输出则启动成功

在这里插入图片描述

5.使用
  • 登录揽睿星舟复制调制地址

在这里插入图片描述

  • 在浏览器进行访问,即可使用
    在这里插入图片描述
  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值