GLM-6B部署手册

硬件环境

GPUNVIDIA 3090
CPUIntel Xeon Gold 6271C, 2.6GHz, 10 Core
内存40G
显存24G
系统盘150G SSD
浮点算力FP32 35.6 TFLOPS

软件环境

python3.10
cuda11.6
cudnn8

部署流程

1.购买服务器并安装镜像

本部署基于揽睿星舟-GPU算力平台(https://www.lanrui-ai.com/

  • 注册并登录后进入控制台,创建工作空间

在这里插入图片描述

  • 选择对应的服务器配置

点击使用,并选择对应的镜像和预训练模型,完成环境搭建
在这里插入图片描述
在这里插入图片描述

2.部署GML-6B
  • Git加速配置

执行下面2条命令,设置git学术资源加速

git config --global http.proxy socks5h://172.16.16.39:8443
git config --global https.proxy socks5h://172.16.16.39:8443
  • 下载ChatGLM源代码

进入Jupyter的页面后,可以看到2个目录,对目录做下说明:

data目录,存放数据,平台共享的

imported_models目录,存放预训练模型,即创建工作空间时你选择的模型

点击data目录下,可以看到ChatGLM-6B文件夹,里面是ChatGLM的源代码

如果没有ChatGLM-6B目录,那么我们这一步需要下载代码,

操作如下: 页面打开一个Terminal终端,在Terminal终端执行命令 下载ChatGLM源代码

git clone https://github.com/THUDM/ChatGLM-6B.git
  • 安装依赖

执行命令切换到ChatGLM-6B的目录

cd ChatGLM-6B

接着修改requirements.txt文件,把后续所有需要的依赖都加上,下面的配置加在文件末尾即可,如果文件里已加上这3个依赖,无需再修改

chardet
streamlit
streamlit-chat

加完之后save保存下文件,如图
在这里插入图片描述

接着命令行执行下面命令安装依赖,如果报错ERROR: Could not install packages due to an OSError: Missing dependencies for SOCKS support,执行sudo su切换root用户再执行以下命令即可

# 使用默认镜像源下载会超时,这里用了清华的pip镜像源地址
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/
3.修改启动脚本
  • 修改web_demo2.py文件中的模型加载地址为本地目录

在这里插入图片描述

改为
在这里插入图片描述

4.启动
  • 在ChatGLM-6B目录下,命令行执行
python3 -m streamlit run ./web_demo2.py --server.port 27777 --server.address 0.0.0.0
  • 看到如下输出则启动成功

在这里插入图片描述

5.使用
  • 登录揽睿星舟复制调制地址

在这里插入图片描述

  • 在浏览器进行访问,即可使用
    在这里插入图片描述
  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
感谢您选择GLM-6B预训练模型进行聊天机器人开发。下面是一个简单的部署流程,以供参考: 1. 首先,您需要安装必要的依赖库,包括 TensorFlow 和 Transformers。您可以使用以下命令来安装这些库: ``` pip install tensorflow==2.5.0 pip install transformers==4.5.1 ``` 2. 接下来,您需要下载GLM-6B预训练模型及其配置文件。您可以从Hugging Face的模型库中下载这些文件: ``` from transformers import AutoTokenizer, TFAutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("microsoft/DialoGPT-medium") model = TFAutoModelForCausalLM.from_pretrained("microsoft/DialoGPT-medium") ``` 在这个例子中,我们使用了 Microsoft 公司发布的 DialoGPT-medium 模型,它的大小为1.5亿参数,比 GLM-6B 小一些。如果您希望使用 GLM-6B 模型,请将上述代码中的 "microsoft/DialoGPT-medium" 替换为 "microsoft/DialoGPT-large"。 3. 一旦您下载了模型和配置文件,您就可以开始编写代码来实现聊天机器人。以下是一个示例代码: ``` from transformers import AutoTokenizer, TFAutoModelForCausalLM import tensorflow as tf # 加载模型和分词器 tokenizer = AutoTokenizer.from_pretrained("microsoft/DialoGPT-medium") model = TFAutoModelForCausalLM.from_pretrained("microsoft/DialoGPT-medium") # 开始聊天 while True: # 获取用户输入 user_input = input("You: ") # 将用户输入编码为输入向量 input_ids = tokenizer.encode(user_input + tokenizer.eos_token, return_tensors='tf') # 生成回复 outputs = model.generate(input_ids=input_ids, max_length=1000, pad_token_id=tokenizer.eos_token_id) bot_reply = tokenizer.decode(outputs[0], skip_special_tokens=True) # 输出回复 print("Bot:", bot_reply) ``` 在这个代码中,我们使用了 TensorFlow 2.x 版本的 API。我们首先加载了模型和分词器,然后在一个无限循环中获取用户输入,并使用模型生成回复。最后,我们将回复输出到控制台。 4. 最后,您可以将代码部署到您的服务器或云计算平台上,以便用户可以与您的聊天机器人进行交互。 需要注意的是,这只是一个简单的部署流程,实际情况可能会更加复杂。如果您在部署过程中遇到了问题,可以参考 Transformers 的文档或在社区中寻求帮助。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值