ubuntu22.04CPU部署ChatGLM笔记

本文记录了在Ubuntu 22.04系统上使用CPU部署ChatGLM的详细步骤,包括环境配置、模型下载、调用模型以及解决内存不足问题的过程。通过创建conda环境、安装依赖、下载模型到本地并覆盖相应文件,成功部署了ChatGLM模型。在运行中发现模型加载时内存需求较高,通过增加swap分区解决了内存不足问题。虽然CPU运行速度较慢且存在英文对话中的中文问题,但整体部署过程顺利完成。
摘要由CSDN通过智能技术生成

ChatGLM官方Github链接 https://github.com/THUDM/ChatGLM-6B

我就是一步步按照官方部署教程完成ChatGLM部署。对于官方文档里面详细描述的部署步骤不进一步赘述。这里主要记录几个自己遇到的问题

1 安装环境及依赖

ChatGLM部署需要安装python, pytorch等环境,为了防止现有电脑里的python环境版本不符合出现问题,我们可以使用anaconda管理多个独立的python环境
这里我们使用占用内存更小的miniconda
下载地址:https://docs.conda.io/en/latest/miniconda.html#linux-installers

Miniconda自带python,注意下载python版本在3.10

下载安装miniconda后,系统默认处于base环境,我们创建新环境名为chatglm

conda create -n chatglm --clone base
conda activate chatglm

官方github里的requirements.txt文件列出了ChatGLM所有依赖及版本,下载官方guthub库到本地后,执行

pip install -r requirements.txt

这里如果下载速度慢可以将pip更换为国内源,这里我选择了清华源

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple/

2 下载模型到本地

在官方的原示例中,模型文件由transformer远程下载,速度会非常慢(ChatGL

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值