人工智能 -部署私有化大模型(ChatGLM-6B)

一、如何本地部署大模型

  1. 硬件环境准备(内存>16GB、显卡显存8GB以上)

  2. 软件环境准备,安装python虚拟环境神器:Anaconda

  3. 去魔搭社区(https://modelscope.cn/home)找相应的开源模型 ChatGLM-6B
    在这里插入图片描述

  4. 安装模型运行必须的环境和魔搭社区插件(以下插件依次安装)
    环境安装国内镜像(中国科技大学) -i https://mirrors.ustc.edu.cn/pypi/web/simple
    pip install protobuf ‘transformers>=4.30.2’ cpm_kernels ‘torch>=2.0’ gradio mdtex2html sentencepiece accelerate
    安装torch注意事项

     torch 安装要找相应的显卡cuda版本
     命令行运行命令 nvidia-smi 查看显卡cuda支持的最高版本
    

    在这里插入图片描述

     我cuda版本是11.7;所以进入pytorch官网选择相应版本:https://pytorch.org/get-started/locally/
    

    在这里插入图片描述

    CUDA 11.7 使用以下命令安装环境
     conda install pytorch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 pytorch-cuda=11.7 -c pytorch -c nvidia
     上述环江安装好之后,重启电脑;命令行输入:nvcc -V 查看安装情况
    
  5. 加载模型,开始私有模型之旅

# 查看torch安装情况
import torch
print("是否可用:", torch.cuda.is_available())        # 查看GPU是否可用
print("GPU数量:", torch.cuda.device_count())        # 查看GPU数量
print("torch方法查看CUDA版本:", torch.version.cuda)  # torch方法查看CUDA版本
print("GPU索引号:", torch.cuda.current_device())    # 查看GPU索引号
# print("GPU名称:", torch.cuda.get_device_name(1))    # 根据索引号得到GPU名称

#下载模型 也可以在魔搭社区自行下载
from modelscope import snapshot_download
# 下载模型
model_dir = snapshot_download("ZhipuAI/chatglm3-6b", revision = "v1.0.0")
加载模型

from modelscope import AutoTokenizer, AutoModel
# 下载模型
# model_dir = snapshot_download("ZhipuAI/chatglm3-6b", revision = "v1.0.0")
model_dir= r"D:\ai\chatglm3-6b"
# 加载预处理分词器 把文字转换为模型理解的数据
tokenizer = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
# 加载一个预处理模型
model = AutoModel.from_pretrained(model_dir, trust_remote_code=True).half().quantize(4).cuda()
# 设置模型为推理模式
model = model.eval()
  • 11
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值