清华大学chatGLM6B模型本地化部署教程

本文提供了一份详细的ChatGLM-6B模型在消费级显卡上的本地部署教程,包括CUDA和Torch版本的选择、依赖库的安装、模型下载及配置修改,最终通过运行web_demo.py启动交互式对话服务。
摘要由CSDN通过智能技术生成

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。项目地址:
https://github.com/THUDM/ChatGLM-6B。

测试环境:windows11,CUDA 12.1,Torch-2.0.1

内存16G,显卡 3060 , 显存6G

  1. 安装python,git,网上教程很多,不再重复。
  2. 确定CUDA,Torch版本且是否相互兼容。

cmd命令行中输入:nvidia-smi

 

CUDA建议11.8,低于该版本请升级,最新版本下载地址:
https://developer.nvidia.com/cuda-toolkit

Torch 需要选择和CUDA配套的版本:

访问:
https://pytorch.org/get-started/locally/#supported-windows-distributio

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值