书生浦语大模型第五节课作业

一.配置lmdeploy运行环境

由于环境依赖项存在torch,下载过程可能比较缓慢。InternStudio上提供了快速创建conda环境的方法。打开命令行终端,创建一个名为lmdeploy的环境:接下来,激活刚刚创建的虚拟环境。安装0.3.0版本的lmdeploy。(如图所示)

二.下载internlm-chat-1.8b模型

   从InternStudio开发机上下载模型,首先进入一个你想要存放模型的目录,本教程统一放置在Home目录。执行如下指令:cd~;然后执行指令由开发机的共享目录软链接或拷贝模型执行完指令后,可以运行“ls”命令。可以看到,当前目录下已经多了一个internlm2-chat-1_8b文件夹,即下载好的预训练模型。

三.以命令行方式与模型对话

1.使用Transformer库运行模型

2.使用LMDeploy与模型对话

3.设置最大KV Cache缓存大小

a.7856MB

首先保持不加该参数(默认0.8),运行1.8B模型此时显存占用为7856MB。

b.6608MB

c.4560MB

4.使用W4A16量化

a.量化之前

b.量化之后

5.LMDeploy服务(serve)

a.启动API服务器

b.命令行客户端连接API服务器

c.网页客户端连接API服务器

6.Python代码集成

a.Python代码集成运行1.8B模型

b.向TurboMind后端传递参数

四.拓展部分(30%的进阶作业)
1.使用LMDeploy运行视觉多模态大模型llava
a.pipeline推理llava-v1.6-7b
b.Gradio来运行llava模型

2.使用LMDeploy运行第三方大模型

LMDeploy不仅支持运行InternLM系列大模型,还支持其他第三方大模型。可以从Modelscope,OpenXLab下载相应的HF模型,下载好HF模型,下面的步骤就和使用LMDeploy运行InternLM2一样

3.定量比较LMDeploy与Transformer库的推理速度差异
a.Transformer库的推理速度
b.LMDeploy的推理速度

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值