一、环境说明
电脑配置如下:

运行大模型主要看GPU,我这个8G的GPU跑这个ChatGLM3-6B有点紧张了。
注意:
一个模型6b = 6144亿参数
如果一个参数为int 4,那么 1b = 2个参数
如果一个参数为FP16, 那么 1b = 0.5个参数
因此,6b模型在fp16的情况下至少需要13288亿字节~ 13.3g左右的存储方案。
二、部署大模型
-
下载大模型文件

建议采用git的方式下载到本地,如没有git,则先在本地电脑上安装git。
git下载地址:git lfs install git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git下载的过程比较漫长,请耐心等待。
如果网络慢或者无法下载,请科学上网,然后重新下载。
下载好后,如下图所示:

整个文件夹大小大概34G左右。 -
下载cuda安装包并安装
选择对应版本的cuda,然后直接双击安装即可。
点击进入cuda官网 -
安装Python或者Anaconda,确保有jupyter notebook环境
我安装的Python,然后配置jupyter环境。想省事的话,直接下载Anaconda安装。PS C:\Users\suben> python -V Pyt

本文介绍了在本地部署大模型ChatGLM3-6B的详细过程,包括环境配置、GPU需求、模型下载、CUDA安装、Python环境设置和依赖添加。在8GB GPU上运行模型时,需要耐心等待加载。部署关键点是确保拥有足够的GPU显存,否则无法运行。最后,展示了与大模型进行对话的代码示例。
最低0.47元/天 解锁文章
1409

被折叠的 条评论
为什么被折叠?



