【LMDeploy 量化部署 LLM 实践】课程笔记及作业

《LMDeploy 量化部署 LLM 实践》课程笔记


模型部署指将训练好的深度学习模型在特定环境中运行的过程

在这里插入图片描述
大模型部署面临的挑战之一是计算量巨大

在这里插入图片描述
另一个挑战是内存开销巨大

在这里插入图片描述
第三个挑战是大模型推理是访存密集型任务,存在访存瓶颈

在这里插入图片描述
常用大模型部署方法
模型剪枝

在这里插入图片描述
知识蒸馏

在这里插入图片描述
模型量化,基本思想是将表示方法中的浮点数转换为整数或其他离散形式,降低访存量,降低深度学习模型的存储和计算负担

在这里插入图片描述
lmdeploy简介

在这里插入图片描述
lmdeploy核心功能包括高效推理,量化压缩和服务化部署

在这里插入图片描述

《LMDeploy 量化部署 LLM 实践》课程作业

在这里插入图片描述


不使用lmdeploy部署推理

在这里插入图片描述
使用lmdeploy部署推理

在这里插入图片描述
LMDeploy的KV Cache管理器可以通过设置–cache-max-entry-count参数,控制KV缓存占用剩余显存的最大比例。默认的比例为0.8。

在这里插入图片描述
下面,改变–cache-max-entry-count参数,设为0.5。

在这里插入图片描述
对模型进行4-bit量化

在这里插入图片描述
下面使用Chat功能运行W4A16量化后的模型。为了更加明显体会到W4A16的作用,将KV Cache比例再次调为0.01,查看显存占用情况。

在这里插入图片描述
可以看到显存占用率明显降低
启动API服务器

在这里插入图片描述
在本地浏览器打开页面

在这里插入图片描述
在vscode中新建客户端终端进行对话

在这里插入图片描述
网页客户端连接API服务器

在这里插入图片描述

Python代码集成运行1.8B模型

在这里插入图片描述
向TurboMind后端传递参数

在这里插入图片描述
使用LMDeploy运行视觉多模态大模型llava
运行结果

在这里插入图片描述
通过Gradio来运行llava模型

在这里插入图片描述

  • 7
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
LLM(Language Learning Model)是一个基于预训练模型的自然语言处理框架,可以用于各种NLP任务,如文本分类、命名实体识别、情感分析等。下面是LLM模型的本地部署及微调流程: 1. 下载预训练模型 LLM模型基于预训练模型,可以通过Hugging Face官网下载预训练模型。选择相应的模型并下载到本地。 2. 安装LLM 可以使用pip命令安装LLM,命令如下: ``` pip install llm ``` 3. 加载预训练模型 使用LLM的load方法加载预训练模型,代码示例如下: ```python from llm.modeling import LLMForSequenceClassification model = LLMForSequenceClassification.from_pretrained('path/to/pretrained_model') ``` 4. 微调模型 使用LLM的train方法微调模型,代码示例如下: ```python import torch from llm.data import TextDataset, TextDataLoader from llm.training import LLMTrainer train_dataset = TextDataset('path/to/train_data', model.tokenizer) train_loader = TextDataLoader(train_dataset, batch_size=32, shuffle=True) optimizer = torch.optim.Adam(model.parameters(), lr=5e-5) trainer = LLMTrainer(model, optimizer) trainer.train(train_loader, epochs=3) ``` 5. 保存微调后的模型 使用LLM的save_pretrained方法保存微调后的模型,代码示例如下: ```python model.save_pretrained('path/to/fine_tuned_model') ``` 以上就是LLM模型的本地部署及微调流程。需要注意的是,在微调模型时,需要准备好训练数据,并且调整好超参数,以达到最佳的微调效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值