【本地部署大模型ChatGLM3-6B】

本文介绍了在本地部署大模型ChatGLM3-6B的详细过程,包括环境配置、GPU需求、模型下载、CUDA安装、Python环境设置和依赖添加。在8GB GPU上运行模型时,需要耐心等待加载。部署关键点是确保拥有足够的GPU显存,否则无法运行。最后,展示了与大模型进行对话的代码示例。
摘要由CSDN通过智能技术生成

本地部署大模型ChatGLM3-6B

一、环境说明

电脑配置如下:
在这里插入图片描述
运行大模型主要看GPU,我这个8G的GPU跑这个ChatGLM3-6B有点紧张了。

注意
一个模型6b = 6144亿参数
如果一个参数为int 4,那么 1b = 2个参数
如果一个参数为FP16, 那么 1b = 0.5个参数
因此,6b模型在fp16的情况下至少需要13288亿字节~ 13.3g左右的存储方案。

二、部署大模型

  1. 下载大模型文件
    在这里插入图片描述
    建议采用git的方式下载到本地,如没有git,则先在本地电脑上安装git。
    git下载地址:

    git lfs install
    git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git
    

    下载的过程比较漫长,请耐心等待。
    如果网络慢或者无法下载,请科学上网,然后重新下载。
    下载好后,如下图所示:
    在这里插入图片描述
    整个文件夹大小大概34G左右。

  2. 下载cuda安装包并安装
    选择对应版本的cuda,然后直接双击安装即可。
    点击进入cuda官网

  3. 安装Python或者Anaconda,确保有jupyter notebook环境
    我安装的Python,然后配置jupyter环境。想省事的话,直接下载Anaconda安装。

    PS C:\Users\suben> python -V
    Pyt
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

若兰幽竹

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值