Kimi开源底层推理框架,1小时GitHub揽星1.2k

一水 发自 凹非寺
量子位 | 公众号 QbitAI

什么?Kimi底层推理架构刚刚宣布:开!源!了!

你没听错,就是那个承载了Kimi线上80%以上流量的架构。

大约几小时前,月之暗面Kimi联合清华大学等机构,开源了大模型推理架构Mooncake

ff8ac4a61a39c8bb14392bbf7795bd27.png

根据官方介绍,本次开源将采用分阶段的方式

逐步开源高性能KVCache多级缓存Mooncake Store的实现,同时针对各类推理引擎和底层存储/传输资源进行兼容。

其中传输引擎Transfer Engine现在已经在GitHub全球开源。

可以看到,Mooncake一经开源,已在GitHub狂揽1.2k star。

7f932a66d9895c759114288494119990.png

其最终开源目标是,为大模型时代打造一种新型高性能内存语义存储的标准接口,并提供参考实现方案。

月之暗面Kimi工程副总裁许欣然表示:

通过与清华大学MADSys实验室紧密合作,我们共同打造了分离式大模型推理架构Mooncake,实现推理资源的极致优化

Mooncake不仅提升了Kimi的用户体验,降低了成本,还为处理长文本和高并发需求提供了有效的解决方案。

我们相信,通过与产学研机构开源合作,可以推动整个行业向更高效的推理平台方向发展。

ea925656ed0991990c02eda24d6c01cf.png

实际上,这个项目早在今年6月就已启动,当时已受到业内广泛关注——

18966b668f0fbc368f017c3ce0ca8e14.jpeg

大模型推理架构Mooncake

今年6月,月之暗面和清华大学MADSys实验室联合发布了Kimi底层的Mooncake推理系统设计方案

在这篇名为《Mooncake: A KVCache-centric Disaggregated Architecture for LLM Serving》的论文中,作者详细介绍了Mooncake这种系统架构。

该系统基于以KVCache为中心的PD分离和以存换算架构,大幅度提升了推理吞吐。

cd71cd5aca8bb31f97611a9a666c8c23.png

具体而言,Mooncake采用以KVCache为中心的解耦架构,将预填充集群与解码集群分离,并充分利用GPU集群中未充分利用的CPU、DRAM和SSD资源,实现KVCache的解耦缓存。

其核心在于以KVCache为中心的调度程序:

在最大化整体有效吞吐量和满足与延迟相关的服务级别目标 (SLO) 要求之间取得平衡

当面对流量高峰期时,Mooncake通过早期拒绝策略和预测未来负载的方法,来处理超载问题。

  • 早期拒绝策略(Early Rejection Policy)

简单说,其核心思想是在请求实际开始处理之前,根据当前系统的负载情况预测是否有足够的资源来处理新的请求。

如果预测结果表明系统资源不足以保证请求的及时处理,系统就会在请求到达之前予以拒绝,从而避免了无效的资源占用和不必要的延迟。

  • 预测未来负载(Predicting Future Load)

在Mooncake中,系统需要能够预测在未来一段时间内的负载情况,以便做出更准确的接受或拒绝请求的决策。

如何实现呢??

通常来说,这种预测会基于当前的请求模式、系统的资源使用情况以及历史数据等信息。

再通过对信息的进一步分析建模,Mooncake就能够估计接下来的请求处理需求,并据此调整其调度策略。

论文实验结果显示,与基线方法相比,Mooncake在某些模拟场景中可以实现高达525%的吞吐量提升,同时遵守SLO(与延迟相关的服务级别目标)。

在实际工作负载下,Mooncake使Kimi能够处理75%以上的请求。

而且据许欣然在其他场合透露:

目前这套系统承载了Kimi线上80%以上的流量。

d3bbe09bf8ebdfe7e37c45a634d32381.png

而现在,为了进一步加速该技术框架的应用与推广,Kimi联合清华大学等机构共同发布开源项目Mooncake。

参与开源的首批阵容包括:

AISoft、阿里云、华为存储、面壁智能、趋境科技等。

可以说,云计算、存储、AI模型玩家等产学研力量都聚齐了。

据悉,Mooncake开源项目从论文延伸,以超大规模KVCache缓存池为中心,通过以存换算的创新理念大幅度减少算力开销,显著提升了推理吞吐量。

目前Mooncake技术框架已正式开源上线,官方还表示:

欢迎更多企业和研究机构加入Mooncake项目共建,共同探索更加高效和先进的模型推理系统架构创新,让基于大模型技术的AI助手等产品,持续惠及更广泛人群。

f192956aae050ed5366fee3c83172b34.gif

论文:
https://arxiv.org/pdf/2407.00079
开源地址:
https://github.com/kvcache-ai/Mooncake

参考链接:
https://mp.weixin.qq.com/s/-8ZRbRxBOWNfkk3xMdcWVQ

—  —

「MEET2025智能未来大会」
火热
报名中

定档12月11日!李开复博士、周志华教授、智源研究院王仲远院长都来量子位MEET2025智能未来大会探讨行业破局之道了!

最新嘉宾阵容在此观众报名通道已开启!欢迎来到MEET智能未来大会,期待与您一起预见智能科技新未来 c693bd580713f1e5a61737c4b3395631.png

1ab7a656e535b4aff9e266fc5495668c.png

47c69751f48cf84bea95b02bbbc45f48.png

29a30082d6e260fa4ae6512836c56afc.png

4ceb89dc2de86f382dc59f564ec5231e.png

4ef4979c0bb70a4339f8d40015e3b249.png

9d679ebcaf932e0964b939e847411001.png

c28901962c8cbf9db496ccea6964cc64.png

52b482e16935ac4307deba7e80072737.png

87e53dfab476f0a25c3381fbb1f30c03.png

051acd39b852659f549b3e133caf965a.png

71d92f896e169882cc3bf6cc473b833a.png

ce9ac40d12e3a041d847db8b8100a09c.png

15c74a5a9678bcec9b6baa8e519c17f3.png

2ba490fa2b733bd22a41facedd734ae3.png

9ec18401315d2def2aeea188af53da84.png

91fce90bef5b9e5019e4a97e3ec553b9.png

72e8ed09e9c9a1ab37b0bd1aa09743b1.png

8cafbf4e7efe6b0faacf81e4fc686faa.png

outside_default.png

左右滑动查看最新嘉宾阵容

outside_default.png

点这里👇关注我,记得标星哦~

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值