书生浦语第五节课作业

1.创建开发机以及配置环境下载模型

2.运行模型

3.使用LMDeploy与模型对话

速度要快很多

4.模型量化

首先保持不加该参数(默认0.8),运行1.8B模型,与模型对话,查看右上角资源监视器中的显存占用情况。

下面,改变--cache-max-entry-count参数,设为0.5。与模型对话,再次查看右上角资源监视器中的显存占用情况。

--cache-max-entry-count参数设置为0.01,约等于禁止KV Cache占用显存。然后与模型对话,可以看到,此时显存占用仅为4560MB,代价是会降低模型推理速度。

5.量化:运行命令后得到量化后的模型

为了更加明显体会到W4A16的作用,我们将KV Cache比例再次调为0.01,查看显存占用情况。看到,显存占用变为2472MB,明显降低。

6.启动api服务器

在vscode终端直接通过命令行窗口与模型对话

网页端我死活加载不出来,放弃了

7.python代码集成并向传递参数

拓展部份我的网页端一直打不开并且说我的显存不够,好像10%太少了

...遂放弃

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值