目录
1 概述
浪潮信息KOS是浪潮信息基于Linux Kernel、OpenAnolis等开源技术自主研发的一款服务器操作系统,支持x86、ARM等主流架构处理器,性能和稳定性居于行业领先地位,具备成熟的 CentOS 迁移和替换能力,可满足云计算、大数据、分布式存储、人工智能、边缘计算等应用场景需求。详细介绍见官网链接https://www.ieisystem.com/kos/product-kos-xq.thtml?id=12126
vLLM是一种用于大规模语言模型(LLM)推理的框架,旨在提高模型的吞吐量和降低延迟。vLLM通过优化内存管理和调度策略,显著提升了模型在高并发场景下的性能。vLLM利用了一种名为PagedAttention的注意力机制,该机制借鉴了虚拟内存和分页技术,以减少缓存内存(KV Cache)的浪费,并允许在请求之间灵活共享KV缓存。这种设计使得vLLM在保持与现有系统相同延迟水平的情况下,能够将吞吐量提高2到4倍。官方网址:https://www.vllm.ai
2 环境准备
操作系统版本:KOS 5.8 sp2u1(5.10.134-17.2.2.kos5.x86_64)
测试架构:x86_64,96核1TB物理机
显卡:NVIDIA Tesla V100s * 2
3 部署安装
3.1 安装docker
执行yum install docker –y 安装docker服务
执行systemctl start docker启动docker服务
3.2 下载vllm镜像
执行 docker pull vllm/vllm-openai:latest
可能会遇到下载失败或者速度较慢的情况,推荐使用国内源下载,例如:
docker pull docker.1ms.run/vllm/vllm-openai:latest

最低0.47元/天 解锁文章
6775

被折叠的 条评论
为什么被折叠?



