使用 OpenVINO 部署ChatGLM3-6B 模型

        实测OpenVINO比chatglm3-6b在cpu上运行,简单聊天对话,速度提高明显。

参考网站:https://github.com/THUDM/ChatGLM3/blob/main/Intel_device_demo/openvino_demo/README.md

一、环境配置

(一)克隆OpenVINO GLM3 推理仓库并安装依赖。

git clone https://github.com/OpenVINO-dev-contest/chatglm3.openvino.git
cd chatglm3.openvino

 

(二)新建一个虚拟环境,然后按照以下安装依赖。

1. 创建虚拟环境的

python3 -m venv openvino_env

该命令的解释如下:

  python3指定使用Python 3版本的解释器

  -m这是一个选项,告诉Python解释器以模块的方式运行随后的参数。

  venv这是Python标准库中的一个模块,用于创建轻量级的虚拟环境。

  openvino_env这是指定虚拟环境目录的名称。这个目录将会被创建在你运行这个命令的当前目录下,并且包含了Python解释器、标准库以及安装包的副本。

 2. 激活虚拟环境

source openvino_env/bin/activate

 执行后,前面括号内提示已经使用了openvino_env环境

 3. 升级pip

python3 -m pip install --upgrade pip

 4. 安装wheel 和 setuptools包

pip install wheel setuptools

5. 安装依赖

pip install -r requirements.txt

二、转换模型

        将Huggingface模型转换为OpenVINO IR模型

        需要下载模型并转换。

python3 convert.py --model_id THUDM/chatglm3-6b --output {your_path}/chatglm3-6b 

可以选择的参数解释:

--model_id - 模型所在目录的路径(绝对路径);

--output - 转换后模型保存的地址

三、 量化模型(非必须)我的测试未作量化

python3 quantize.py --model_path {your_path}/chatglm3-6b --precision int4 --output {your_path}/chatglm3-6b-int4

可以选择的参数

--model_path - OpenVINO IR 模型所在目录的路径。

-- precision - 量化精度:int8 或 int4。

--output - 保存模型的路径。

四、运行 ChatGLM3 模型

python3 chat.py --model_path {your_path}/chatglm3-6b --max_sequence_length 4096 --device CPU

可以选择的参数

--model_path - OpenVINO IR 模型所在目录的路径。

--max_sequence_length - 输出标记的最大大小。

--device - 运行推理的设备。

运行效果:

 

五、常见问题

(一)为什么倒入本地模型还会报 huggingface 链接错误

        1. 降级 transformers 库到 4.37.2 版本

                查看transformers版本命令:

pip show transformers

                如果当前版本高于4.37.2,则降级命令:

sudo pip install transformers==4.37.2

(二)需要安装 OpenVINO C++ 推理引擎吗

        1.不需要

(三)一定要使用 Intel 的硬件吗?

        1.我们仅在 Intel 设备上尝试,我们推荐使用x86架构的英特尔设备,包括但不限制于: 

        2.英特尔的CPU,包括个人电脑CPU 和服务器CPU。 

        3.英特尔的独立显卡。例如:ARC A770 显卡。

  • 23
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
当然,我可以帮助你部署ChatGPT模型。以下是一步一步的指南: 步骤1:准备环境 首先,你需要一个Python环境来运行模型。确保你已经安装了Python 3.6或更高版本。 步骤2:安装依赖项 在命令行中打开一个新的终端窗口,并使用以下命令安装所需的依赖项: ``` pip install transformers flask ``` 步骤3:下载并解压模型 从CSDN下载chatglm2-6b模型的权重文件,并将其解压缩到你选择的目录中。 步骤4:创建Flask应用程序 在你选择的目录中创建一个名为app.py的Python文件,并使用以下代码创建一个基本的Flask应用程序: ```python from flask import Flask, request, jsonify from transformers import GPT2LMHeadModel, GPT2Tokenizer app = Flask(__name__) model_path = "path/to/your/model" tokenizer = GPT2Tokenizer.from_pretrained(model_path) model = GPT2LMHeadModel.from_pretrained(model_path) @app.route("/chat", methods=["POST"]) def chat(): data = request.json input_text = data["input_text"] input_ids = tokenizer.encode(input_text, return_tensors="pt") output = model.generate(input_ids, max_length=100) response = tokenizer.decode(output[0], skip_special_tokens=True) return jsonify({"response": response}) if __name__ == "__main__": app.run(host="0.0.0.0", port=5000) ``` 步骤5:运行应用程序 在终端窗口中,导航到包含app.py文件的目录,并运行以下命令来启动应用程序: ``` python app.py ``` 步骤6:测试应用程序 使用HTTP客户端(如Postman或cURL)向http://localhost:5000/chat发送POST请求,并在请求正文中包含以下JSON数据: ```json { "input_text": "你想说的话" } ``` 你将收到一个包含ChatGPT模型生成的响应的JSON响应。 这就是部署chatglm2-6b模型的基本步骤。你可以根据需要进行修改和扩展。希望这可以帮助到你!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

静候光阴

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值