Ubuntu 部署ChatGLM3大语言模型

13 篇文章 0 订阅

Ubuntu 部署ChatGLM3大语言模型

ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的对话预训练模型。

源码:https://github.com/THUDM/ChatGLM3


部署步骤

1.服务器配置

Ubuntu 20.04

8核(vCPU) 32GiB 5Mbps GPU NVIDIA T4 16GB 硬盘 100GiB

CUDA 版本 12.2.2/Driver 版本 535.161.07/CUDNN 版本 8.9.4

查看CUDA版本:nvidia-smi

2.程序和模型文件

程序:

程序保存目录/home/ubuntu/ChatGLM3Test2,注意目录权限要可写

https://github.com/THUDM/ChatGLM3

模型:

建议从魔塔下载

模型保存目录/home/ubuntu/THUDM

https://www.modelscope.cn/models/ZhipuAI/chatglm3-6b/summary

注意:记得修改程序里面的模型目录

文件:composite_demo/client.py 第18行

3.Python环境

服务器安装Python3.10.0,参考https://blog.csdn.net/luobowangjing/article/details/137726093

安装Python3.10.0虚拟环境,参考https://blog.csdn.net/luobowangjing/article/details/131081787

cd /home/ubuntu/ChatGLM3Test2
#安装虚拟环境依赖
pip install virtualenv

#*创建虚拟环境
virtualenv venv
#*激活虚拟环境
source venv/bin/activate

#退出虚拟环境
deactivate

4.安装依赖包

进入虚拟环境进行操作

前面安装虚拟环境时已经进入了。

#设置pip源设置为清华大学的镜像,如果已设置就不用设置查看镜像源使用命令pip config get global.index-url
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
#如果版本是24.0就不用更新
python -m pip install --upgrade pip

#*安装项目依赖
pip install -r requirements.txt
#*安装Demo依赖,注意修改requirements.txt里面的huggingface_hub==0.19.4,否则运行demo会报错
pip install -r composite_demo/requirements.txt

5.运行测试

streamlit run composite_demo/main.py --server.port 8502

在这里插入图片描述

6.配置服务器自启动

6.1.设置启动脚本 llmservice2.sh,vi llmservice2.sh,退出:wq

#!/bin/sh
cd /home/ubuntu/ChatGLM3Test2
source venv/bin/activate
streamlit run composite_demo/main.py --server.port 8502

6.2.新建启动服务

​ 路径:/usr/lib/systemd/system/llmservice2.service

[Unit]
Description=llmservice
After=network.target

[Service]
ExecStart=/home/ubuntu/llmservice2.sh

[Install]
WantedBy=default.target

7.服务自启动

sudo systemctl enable llmservice2.service
sudo systemctl start llmservice2.service
sudo systemctl status llmservice2.service
sudo systemctl stop llmservice2.service
sudo systemctl restart llmservice2.service

8.启动成功截图

在这里插入图片描述

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
ChatGPT是OpenAI的一款自然语言处理模型,可以用于生成对话和文本,具有广泛的应用场景。在Ubuntu系统上部署ChatGPT可以通过以下步骤进行: 1. 安装Ubuntu:确保已经在目标机器上安装了Ubuntu操作系统,并且成功启动和登录。 2. 下载ChatGPT代码:访问OpenAI的GitHub页面,下载ChatGPT的代码库。可以使用Git命令克隆代码库到本地,或者直接下载zip文件并解压。 3. 安装依赖库:ChatGPT依赖于一些Python库,包括TensorFlow、NumPy等。通过命令行进入代码库所在目录,运行以下命令安装依赖库: ``` pip install -r requirements.txt ``` 4. 下载预训练模型ChatGPT需要加载预训练的模型才能正常运行。从OpenAI官网下载相应的模型文件,并保存到合适的目录中。 5. 配置模型路径:在ChatGPT的配置文件中,指定预训练模型的路径。打开代码库中的配置文件,将模型的路径修改为正确的位置。 6. 启动ChatGPT:在命令行中运行以下命令启动ChatGPT: ``` python chatgpt.py ``` 7. 测试ChatGPT:在启动ChatGPT后,可以通过发送输入文本来测试模型。通过命令行提示输入文本,ChatGPT会生成相应的回复。 以上是在Ubuntu系统上部署ChatGPT的基本步骤。需要注意的是,ChatGPT是一个较大的模型部署过程中可能需要较高的计算资源和时间。此外,OpenAI还提供了更详细的文档和说明,可以参考这些资源获取更多信息和指导。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序猿老罗

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值