第十三篇-Tesla P40+ModelScope+Gradio+QWen-14B-Int4

本文主要实现Qwen-14B-Chat-Int4部署与测试

环境

  系统:CentOS-7
  CPU: 14C28T
  显卡:Tesla P40 24G
  驱动: 515
  CUDA: 11.7
  cuDNN: 8.9.2.26

创建环境

conda create --name modelscope python=3.10

conda activate modelscope

克隆项目

git clone https://github.com/lvxy/qwen-chat-gradio.git
cd qwen-chat-gradio

安装依赖-1

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

安装依赖-2

pip install auto-gptq optimum -i https://pypi.tuna.tsinghua.edu.cn/simple

下载模型

python down-models-qwen-14b-int4.py
可以在他服务器下载,这个是modelscope源(国内),速度还是非常好的

运行

修改 服务器模型文件位置
cd qwen-14b-int4
python run-qwen-14b-int4-chat.py

访问使用

    http://127.0.0.1:7860

可以使用体验了

内存与性能

内存消耗在11G~16G
P40太差,速度还是比较慢的,”写一篇100字的关于大山的作文“ 大概35秒返回
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值