书生·浦语大模型-第五节课笔记/作业

本文讨论了使用VLLMWrapper进行模型推理时,如何优化性能,如设置TensorParallelSize、控制GPU内存利用率以及使用float16量化。特别提到lmdeploykv-cache的使用,展示了如何计算KV缓存对内存的影响,并介绍了在生成过程中如何处理历史输入和停止词。
摘要由CSDN通过智能技术生成

笔记

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

作业

原7b模型问题耗时: 4.5s
请添加图片描述
lmdeploy推理耗时: 0.43s

不知道是否因为没有正确的输出

请添加图片描述

lmdeploy kv-cache推理耗时:2.9s

  • 推理时新增 past_key_values 参数,该参数就会以追加方式保存每一轮的K V值。kvcache变量内容为((k,v), (k,v), …, (k,v)),即有 nlayersn_{layers}n_{layers} 个 k,v 组成的一个元组,其中 k 和 v 的维度均为 [b, n_head, s, head_dims]。这里可以顺带计算出每轮推理对应的 cache 数据量为 2∗b∗s∗h∗nlayers2bshn_{layers}2bshn_{layers} ,这里 sss 值等于当前轮次值。以GPT3-175B为例,假设以 float16 来保存 KV cache,senquence长度为100,batchsize=1,则 KV cache占用显存为 2×100×12288×96×2 Byte= 472MB。推理输出的token直接作为下一轮的输入,不再拼接,因为上文信息已经在 kvcache 中

请添加图片描述

VLLM

from transformers import AutoTokenizer, GenerationConfig
from vllm import LLM, SamplingParams


class vLLMWrapper(object):
    def __init__(
        self,
        model_dir,
        tensor_parallel_size=1,
        gpu_memory_utilization=0.9,
        dtype="float16",
        quantization=None,
    ):
        self.generation_config = GenerationConfig.from_pretrained(
            model_dir, trust_remote_code=True
        )
        self.tokenizer = AutoTokenizer.from_pretrained(
            model_dir, trust_remote_code=True
        )
        # self.tokenizer.eos_token_id = self.generation_config.eos_token_id
        self.stop_words_ids = [
            # self.tokenizer.im_start_id,
            # self.tokenizer.im_end_id,
            self.tokenizer.eos_token_id,
        ]
        os.environ["VLLM_USE_MODELSCOPE"] = "True"
        self.model = LLM(
            model=model_dir,
            tokenizer=model_dir,
            tensor_parallel_size=tensor_parallel_size,  # tp
            trust_remote_code=True,
            quantization=quantization,
            gpu_memory_utilization=gpu_memory_utilization,  # 0.6
            dtype=dtype,
        )

    def generate(self, query, history=None, system=None, extra_stop_words_ids=None):
        if isinstance(inputs, str):
            inputs = [inputs]

        if history is None:
            history = []
        else:
            history = copy.deepcopy(history)

        sampling_params = SamplingParams(
            temperature=1.0, top_p=0.5, max_tokens=512, stop=self.stop_words_ids
        )
        response = self.model.generate(
            prompt_token_ids=[prompt_tokens],
            sampling_params=sampling_params,
            use_tqdm=False,
        )
        response = [resp.outputs[0].text for resp in response]

        response_token_ids = remove_stop_words(
            req_output.outputs[0].token_ids, stop_words_ids
        )
        response = self.tokenizer.decode(response_token_ids)

        history.append((query, response))
        return response, history
  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YueTann

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值