本地部署openvino-chaglm3-6b

chatglm3.openvino Demo: https://github.com/OpenVINO-dev-contest/chatglm3.openvino/tree/main

想将github下的代码拉取到本地文件夹中,再打开Windows PowerShell,执行以下命令激活环境。

python -m venv openvino_env

.\openvino_env\Scripts\activate

激活环境的时候,可能会报如下错误,这时候我们只需要输入以下命令,然后输入Y即可解决:

Set-ExecutionPolicy -Scope CurrentUser RemoteSigned

在这里插入图片描述
接下来我们使用以下命令更新pip以及安装所需要的一些依赖库。

python -m pip install --upgrade pip

pip install wheel setuptools

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

2. 转换模型

python convert.py --model_id THUDM/chatglm3-6b --output {your_path}/chatglm3-6b 
  1. –model_id - 用于从 Huggngface_hub (https://huggingface.co/models) 或 模型所在目录的路径(绝对路径)。

  2. –output - 转换后模型保存的地址

如果访问huggingface 有困难,可以尝试使用 mirror-hf 进行下载.

# LINUX
export HF_ENDPOINT=https://hf-mirror.com
# Windows Powershell
$env:HF_ENDPOINT = "https://hf-mirror.com"

Download model

huggingface-cli download --resume-download --local-dir-use-symlinks False THUDM/chatglm3-6b --local-dir {your_path}/chatglm3-6b 

在这里插入图片描述

3. 量化模型(非必须)

python quantize.py --model_path {your_path}/chatglm3-6b --precision int4 --output {your_path}/chatglm3-6b-int4
  1. –model_path - OpenVINO IR 模型所在目录的路径。
  2. – precision - 量化精度:int8 或 int4。
  3. –output - 保存模型的路径。
    在这里插入图片描述

4. 运行流式聊天机器人

python chat.py --model_path {your_path}/chatglm3-6b --max_sequence_length 4096 --device CPU
  1. –model_path - OpenVINO IR 模型所在目录的路径。
  2. –max_sequence_length - 输出标记的最大大小。
  3. –device - 运行推理的设备。例如:“CPU”,“GPU”。

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

心无旁骛~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值