【ChatGLM2-6B】从0到1部署GPU版本

准备机器资源

  • 显卡: 包含NVIDIA显卡的机器,如果是阿里云服务器可以选择ecs.gn6i-c4g1.xlarge规格
  • 硬盘: 大约50G左右
  • 操作系统: CentOS 7.9 64位
  • CPU内存: 4C16G

更新操作系统

sudo yum update -y
sudo yum upgrade -y

下载并安装anaconda

  • 在命令行中,输入以下命令,点击Enter,开始下载anaconda安装包。
wget https://repo.anaconda.com/archive/Anaconda3-2023.09-0-Linux-x86_64.sh
  • 系统系统下载完成后,输入下列命令,点击Enter,开始安装。
bash Anaconda3-2023.09-0-Linux-x86_64.sh
  • 遇到如下界面后,点击Enter,继续安装过程。
...
Please, press ENTER to continue
>>>
  • 出现下面的界面后,继续点击Enter
...
---More---
  • 直到出现提示Do you accept the license terms? [yes|no],输入yes,点击Enter继续。
  • 出现如下提示,点击Enter继续,等待anaconda完成安装,大约需要1分钟
...
[/root/anaconda3] >>>

也可以输入其它路径做为anaconda的安装位置,比如/home/anaconda3

  • 等待出现如下提示后,输入yes,点击Enter, 完成安装。
...
by running conda init? [yes|no]
[no] >>> yes
  • 关闭当前终端界面,重新打开一个新的终端界面

注:接下来所有的操作都在新的终端中完成,命令行最左边,出现(base)字样,代表anaconda已启动。

创建Python虚拟环境

  • conda创建虚拟环境: conda create --name ChatGLM2 python=3.10.6 -y
  • –name 后面ChatGLM2为创建的虚拟环境名称
  • python=之后输入自己想要的python版本
  • -y表示后面的请求全部为yes,这样就不用自己每次手动输入yes了。
  • 激活虚拟环境: conda activate ChatGLM2

安装NVIDIA显卡驱动

  • 官网: http://www.nvidia.com/Download/index.aspx
    在这里插入图片描述

  • 选择CUDA 12.0下载驱动: wget https://cn.download.nvidia.cn/tesla/525.125.06/NVIDIA-Linux-x86_64-525.125.06.run

  • 安装驱动: sudo sh NVIDIA-Linux-x86_64-525.125.06.run -no-x-check -no-nouveau-check -no-opengl-files

  • -no-x-check #安装驱动时关闭X服务
  • -no-nouveau-check #安装驱动时禁用nouveau
  • -no-opengl-files #只安装驱动文件,不安装OpenGL文件
  • 安装完运行确认驱动安装成功: nvidia-smi
    在这里插入图片描述

安装Pytorch

  • 输入如下命令,开始安装Pytorch。
conda install pytorch torchvision torchaudio pytorch-cuda=12.0 -c pytorch -c nvidia

如果显卡驱动选的CUDA是其它版本,就修改pytorch-cuda的版本号与驱动保持一致,显卡驱动和pytorch版本要保持一致才不会出现兼容性问题

  • 出现提示Proceed ([y]/n)? 后,输入y,然后点击Enter继续安装过程。
...
Proceed ([y]/n)? y

下载模型文件、代码仓库

模型文件通常存放在 hugging face、魔搭社区等处。代码仓库通常存放在github。由于hugging face在国内无法正常访问,我们可以从清华大学源下载,本文从阿里云OSS下载。

  • 首先安装git lfs,以便可下载模型文件
sudo yum install git
sudo yum install git-lfs
git lfs install
  • 执行如下命令,安装unzip解压包
yum -y install unzip 
  • 下载ChatGLM2-6B代码仓库
wget https://labfileapp.oss-cn-hangzhou.aliyuncs.com/ChatGLM2-6B.zip
unzip ChatGLM2-6B.zip
  • 运行如下代码从hugging face下载模型文件。模型文件较大,超过12G。需要等待一段时间。
mkdir THUDM
cd THUDM
wget https://labfileapp.oss-cn-hangzhou.aliyuncs.com/chatglm2-6b.zip
unzip chatglm2-6b.zip

在ChatGLM2-6B目录下创建THUDM目录

  • 输入如下命令,安装依赖文件
pip install -r requirements.txt -i http://mirrors.aliyun.com/pypi/simple/

运行ChatGLM2-6B对话网页

  • 输入如下命令,安装streamlit
pip install streamlit streamlit-chat
  • 安装完成后,输入如下命令,运行网页版demo
streamlit run web_demo2.py
  • 复制External URL中的网址,新打开一个浏览器,在其中输入上述地址。
Collecting usage statistics. To deactivate, set browser.gatherUsageStats to False.


  You can now view your Streamlit app in your browser.

  Network URL: http://xx.xx.xx.xx:8502
  External URL: http://xx.xx.xx.xx:8502
  • 等待大约2-3分钟后,模型开始运行。出现如下界面。可以开始输入提示词,与模型对话。
    在这里插入图片描述
  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
为了部署chatglm2-6b模型,您需要按照以下步骤进行操作: 1. 首先,您需要安装一些必要的工具,如Python和Git。确保您已经正确安装了这些工具。 2. 接下来,您需要从HuggingFace下载chatglm2-6b的所有模型文件和配置文件。将这些文件放入一个名为"chatglm2-6b"的文件夹中。建议您手动下载并放入该文件夹。 3. 进入web_demo.py所在的文件夹。您可以使用终端或命令提示符进入该文件夹。 4. 激活chatglm2-6b环境。根据您的操作系统和环境设置,您可能需要运行相应的命令来激活chatglm2-6b环境。例如,对于conda环境,您可以使用"conda activate chatglm2-6b"命令。 5. 最后,执行"python web_demo.py"命令来运行模型。这将启动一个Web演示界面,您可以在其中测试和使用chatglm2-6b模型。 请注意,这只是部署chatglm2-6b模型的基本过程。具体的步骤可能会因您的操作系统、环境设置和个人偏好而有所不同。确保您按照相关文档或指南进行操作,并遇到问题时,可以参考相应的解决办法或寻求帮助。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [ChatGLM2-6B安装详解(Windows/Linux)及遇到的问题解决办法](https://blog.csdn.net/weixin_41529012/article/details/131456645)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [手把手带你linux部署清华大学大模型最新版 chaglm2-6b](https://blog.csdn.net/stay_foolish12/article/details/131437090)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

太空眼睛

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值