书生·浦语LLM 第五节课作业

  • 一、配置 LMDeploy 运行环境:
  • 下载好的预训练模型如上图。

二、以命令行方式与 InternLM2-Chat-1.8B 模型对话:

1.使用Transformer库运行模型:

2.使用LMDeploy与模型对话:

能明显感觉到LMDeploy比Transformer速度快很多。

3.速度比较:

(1)加载模型的速度:

transformer约一分半,如下图:

lmdeploy约46s,如下图:

(2)生成西瓜的故事:

transformer约19秒,如下图:

lmdeploy约3s,如下图:

4.LMDeploy模型量化(lite)

1.无限制:

2.  --cache-max-entry-count 0.1

3.--cache-max-entry-count 0.01 几乎禁止KV Cache占用显存:

总结:禁用前后模型加载速度和推理速度衰减不明显,可能是“生成小故事”过于简单。具体差异应该会在复杂问题的推理上体现。

四、总结

运行方式对比TransformerLMDeploy
加载模型76-95s46s
生成故事19s3-4s

显存限制对比无限制0.10.01
显存占用785649444560
生成小故事速度约4s约4s约4s

  • 7
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值