Xinference使用之【VLLM模型】qwen2-vl-instruct运行步骤及异常问题解决

运行步骤

选择Launch Model->LANGUAGE MODELS,搜索qwen2-vl-instructVLLM模型,如下图所示:
搜索qwen2-vl-instruct VLLM模型
点击模型进入配置页面:

Model Engine 选择 Transformers
Model Format 选择 pytorch
Model Size   选择 7(根据电脑GPU性能选择,体量越大的对GPU的要求越高)
Quantization 选择 none
N-GPU        选择 1(根据自己电脑配置选择,不一定都是1)
Replica      选择 1

如下图所示:
qwen2-vl-instruct参数配置
点击左下角按钮,开始下载并运行qwen2-vl-instructVLLM模型,如下图所示:
qwen2-vl-instruct开始运行
qwen2-vl-instruct运行中
运行成功后自动跳转至Running Models
qwen2-vl-instruct运行成功
至此Xinference嵌入模型qwen2-vl-instruct运行成功!

异常问题一

异常问题描述

cannot import name 'Qwen2VLForConditionalGeneration' from 'transformers' 

异常问题

异常问题排查

异常信息解读推测是:在transformers中不能引用Qwen2VLForConditionalGeneration,资料查询后发现了一个解决办法:https://github.com/QwenLM/Qwen2-VL/issues/83

异常问题处理

运行以下命令:

pip install --no-cache-dir git+https://github.com/huggingface/transformers@19e6e80e10118f855137b90740936c0b11ac397f

运行结果失败:
运行结果失败
发现是超时异常,果断切换国内镜像再试一下:

pip install --no-cache-dir git+https://github.com/huggingface/transformers@19e6e80e10118f855137b90740936c0b11ac397f -i https://pypi.tuna.tsinghua.edu.cn/simple

运行结果成功:
运行结果成功
安装成功后transformers的版本是4.45.0.dev0

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值