Ubuntu22 部署ChatGLM3-6B模型

参考的博客:Ubuntu 部署ChatGLM3-6B模型_ubuntu 23 chatglm3本地部署-CSDN博客

一、运行环境:
        操作系统 :Ubuntu22.04

        虚拟机

        内存:32G及以上内存
        请在安装以前,确定python命令可以正常执行python3,如果系统未能成功执行,按照下列连接内容设置:

        ubuntu中 输入python后python3不能调用-CSDN博客

二、安装驱动

sudo ubuntu-drivers autoinstall

三、安装Anaconda

(一)Anaconda官网下载安装包

anaconda下载链接Anaconda3-2024.02-1-Linux-x86_64.sh

1. 打开Anaconda官网,点击跳过注册


        

2. 选择正确的版本进行下载

        本次选择Linux版本下载,得到Anaconda3-2024.02-1-Linux-x86_64.sh 文件

(二)安装Anaconda

1.执行Anaconda3-2024.02-1-Linux-x86_64.sh 安装,按照要求一步一步操作

sh Anaconda3-2024.02-1-Linux-x86_64.sh

2.首先提示点击ENTER继续安装,按照要求点击ENTER按钮

         点击ENTER后,显示用户须知

3. 阅读完毕后,提示是否同意以上内容,输入yes回车继续

 4. 给了三个选项:

(1)按ENTER确定安装到当前目录

(2)按CTRL+C取消安装

(3)输入一个指定目录路径安装

        这里我尝试第一项,没有安装成功,出现了因为权限不足导致的问题。之后直接在提示符后面输入了home/t/a,将Anaconda安装到了当前t用户下的a文件夹中。

 5. 出现提示,输入yes回车

 6.安装完毕

(三)安装pytorch

下图给的是cuda的安装版本,本次测试我用虚拟机使用低功耗版本,仅使用cpu做演示,我选择的CPU

        安装命令获取连接:Start Locally | PyTorch

conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia

(四)下载模型代码及模型权重

1.下载chatGML3

GitHub - THUDM/ChatGLM3: ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型

1.从模型列表,选择模型下载

ModelSeq LengthDownload
ChatGLM3-6B8kHuggingFace | ModelScope | WiseModel | OpenXLab
ChatGLM3-6B-Base8kHuggingFace | ModelScope | WiseModel | OpenXLabl
ChatGLM3-6B-32K32kHuggingFace | ModelScope | WiseModel | OpenXLab
ChatGLM3-6B-128K128kHuggingFace | ModelScopeOpenXLab

 (五)安装依赖

        (此步骤可能会反复出现连接断开的情况,请反复执行)

        进入已经下载好的ChatGLM3-main文件夹,执行下列命令:

sudo apt update

pip install -r requirements.txt 

(六)测试使用

1. 在ChatGLM3-main中新建THUDM文件加,将chatglm3-6b模型复制其中。

 2.在ChatGLM3-main中,新建chat_test.py文件

         将下列内容,复制到chat_test.py并保存(因为用的是虚拟机,所以这是用cpu计算的低功耗版本的调用模式)

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True)

model = AutoModel.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True).float()

model = model.eval()

while True:

    question = input('>>>')

    response, history = model.chat(tokenizer, question, history=[])

    print(response)

3.执行chat_test.py

python chat_test.py

         执行结果如下:

        我分别提出了hello、who are you两个问题,chatglm3分别做出了回答

 如何使用GPU调用chatglm3-6b请查阅GitHub - THUDM/ChatGLM3: ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型

  • 10
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
ChatGPT是OpenAI的一款自然语言处理模型,可以用于生成对话和文本,具有广泛的应用场景。在Ubuntu系统上部署ChatGPT可以通过以下步骤进行: 1. 安装Ubuntu:确保已经在目标机器上安装了Ubuntu操作系统,并且成功启动和登录。 2. 下载ChatGPT代码:访问OpenAI的GitHub页面,下载ChatGPT的代码库。可以使用Git命令克隆代码库到本地,或者直接下载zip文件并解压。 3. 安装依赖库:ChatGPT依赖于一些Python库,包括TensorFlow、NumPy等。通过命令行进入代码库所在目录,运行以下命令安装依赖库: ``` pip install -r requirements.txt ``` 4. 下载预训练模型ChatGPT需要加载预训练的模型才能正常运行。从OpenAI官网下载相应的模型文件,并保存到合适的目录中。 5. 配置模型路径:在ChatGPT的配置文件中,指定预训练模型的路径。打开代码库中的配置文件,将模型的路径修改为正确的位置。 6. 启动ChatGPT:在命令行中运行以下命令启动ChatGPT: ``` python chatgpt.py ``` 7. 测试ChatGPT:在启动ChatGPT后,可以通过发送输入文本来测试模型。通过命令行提示输入文本,ChatGPT会生成相应的回复。 以上是在Ubuntu系统上部署ChatGPT的基本步骤。需要注意的是,ChatGPT是一个较大的模型部署过程中可能需要较高的计算资源和时间。此外,OpenAI还提供了更详细的文档和说明,可以参考这些资源获取更多信息和指导。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

静候光阴

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值