ChatGLM2-6b本地部署

chatglm2-6m模型
git 地址 https://github.com/THUDM/ChatGLM2-6B
模型百度网盘地址:链接:https://pan.baidu.com/s/1-LFcPB0H23RSpTKOECsjxw?pwd=5e3d
提取码:5e3d

1 模型简介

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。

chatglm对显存的要求最低为6GB
显存要求

2 模型使用

2.1 预训练准备:

  • 模型加载:使用transformers 自动加载模型,网速限制,加载比较慢
    本地下载模型,① Hugging Face Hub 网址:https://huggingface.co/THUDM/chatglm2-6b/tree/main
    ② 清华镜像源下载模型:地址:https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/
    ③ 本人百度网盘整理: 链接:https://pan.baidu.com/s/16VwlyCrLlpbEsNP0oPh2xg?pwd=0982
    提取码:0982

2.2 代码下载及环境安装

  • 1 代码下载
    ① 使用git : git clone https://github.com/THUDM/ChatGLM2-6B
    ②直接下载压缩包,在上面网址直接download zip
  • 2 环境安装
    ① 安装conda虚拟环境(可选项)conda create -n chatglm python=3.7
    ② 安装依赖包,进入ChatGLM2-6B目录,pip install -r requirements.txt

2.3 模型使用

  • 模型加载
    根据自己的显卡内存,修改模型加载项,如下,由于我的电脑是12G显存,使用原始的模型,内存不够,因此添加了.quantize(8)
    model_path,为上面下载的预训练好的模型(可以使用百度网盘分享的)
model_path=r"E:\download\chatglm2-6b"
model = AutoModel.from_pretrained(model_path, trust_remote_code=True).quantize(8).cuda()
  • 模型运行
    方式一 :自建测试文件
from transformers import AutoTokenizer, AutoModel

# model_path=r"E:\download\chatglm2-6b-int4"
model_path=r"E:\download\chatglm2-6b"

tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
# model = AutoModel.from_pretrained(model_path, trust_remote_code=True, device='cuda')
# 按需修改,目前只支持 4/8 bit 量化
model = AutoModel.from_pretrained(model_path, trust_remote_code=True).quantize(8).cuda()
# model = AutoModel.from_pretrained(model_path,trust_remote_code=True).cuda()
model = model.eval()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)

response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
print(response)

方式二 :
使用web_demo.py
直接运行即可
方式三:使用streamlit
需要先找到streamlit所在文件,再执行以下命令

D:\pythonapp\anacondas\envs\chatglm\Scripts\streamlit  run web_demo2.py

3 模型效果:

在这里插入图片描述
鸡兔同笼问题
在这里插入图片描述

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
为了在服务器上部署ChatGLM-6B,你可以按照以下步骤进行操作: 1. 首先,你需要在服务器上进行本地化部署。这意味着你需要将ChatGLM-6B代码和模型文件上传到服务器上。你可以使用git clone命令从GitHub上克隆ChatGLM-6B代码,或者直接下载代码并上传到服务器上。 引用提供了git clone https://github.com/THUDM/ChatGLM2-6B命令,你可以使用它来从GitHub上克隆ChatGLM-6B代码。 2. 接下来,你需要下载ChatGLM-6B模型。你可以从提供的链接或者其他途径下载模型文件,并将其放置在服务器上。 3. 一旦你将代码和模型文件上传到服务器上,你就可以开始部署WebUI界面、命令行方式或API调用的方式之一。 如果你想使用WebUI界面进行部署,你可以执行web_demo.py脚本。引用提供了执行web_demo.py的命令 python web_demo.py。 如果你想使用命令行方式进行部署,你可以进入代码目录,并执行相关的命令。 如果你想使用API调用的方式进行部署,你可以根据API文档中提供的说明进行操作。 总之,你可以根据你的需求选择适合你的部署方式,并按照相应的指导进行操作。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [ChatGLM-webui 清华大语言模型的ui项目.rar](https://download.csdn.net/download/Gefangenes/88152775)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [ChatGLM2-6B部署及微调](https://blog.csdn.net/rexxa/article/details/131605344)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值