第 5 节 LMDeploy 大模型量化部署实践

1.大模型部署背景

1.模型部署
-定义:
	-训练好的模型在特定软硬件环境中启动的过程,使模型能够接收输入并返回预测
	结果
	-为了满足性能和效率的需求,常常需要对模型进行优化,例如模型压缩和硬件加
	速
-产品形态:
	-云端,边缘计算端,移动端
-计算设备:
	-CPU,GPU,NPU,TPU等
2.大模型特点
-内存开销巨大:
	-庞大的参数量。7B模型仅仅权重就需要14+G内存
	-采用自回归生成token,需要缓存Attention的k/v,带来巨大的内存消耗
-动态shape:
	-请求参数不固定
	-token逐个生成,且数量不定
-相对视觉模型,LLM结构简单:
	-transformers结构,大部分是decoder-only
3.大模型部署挑战
-设备:
	-如何应对巨大存储问题?低存储设备(消费级显卡,手机等)如何部署?
-推理
	-如何加速token的生成速度
	-如何解决动态shape,让推理可以不间断
	-如何有效管理和利用内存
-服务
	-如何提升系统整体吞吐量?
	-对于个体用户,如何降低响应时间?
4.大模型部署方案
-技术点
	-模型并行
	-低比特量化
	-Page Attention
	-transformer 计算和访存优化
	-Continuous Batch
-方案
	-huggingface transformers
	-专门的推理加速框架
	-云端
		-Imdeploy
		-vllm
		-tensorrt-llm
		-deepspeed
	-移动端
		-llama.cpp
		-mlc-llm

2.LMDeploy简介

1.全流程解决方案

在这里插入图片描述

2.推理性能

在这里插入图片描述

3.核心功能——量化

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

4.核心功能-推理引擎TurboMind

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

5.核心功能-推理服务API server

在这里插入图片描述

3.作业

基础作业:使用 LMDeploy 以本地对话、网页Gradio、API服务中的一种方式部署 、
InternLM-Chat-7B 模型,生成 300 字的小故事(需截图)
	
	1.TurboMind推理+API服务

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

	2.网页 Demo 演示

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  • 8
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值