边缘云计算面临的困境
5G时代下基础网络设施的现代化改造势在必行,这包括简化运维,提高网络灵活性、可用性、可靠性和扩展性,减少延迟和优化应用响应时间等等。其中,边缘云计算的部署是一大重点——结合网络虚拟化技术把工作负载和服务从核心网络(位于数据中心内)移向网络边缘,一方面可以利用延迟降低的优势,改善现有应用的体验,对于网络运营方而言也便于新业务的灵活部署和统一管理。
随着业务规模快速增长,边缘场景下有限空间资源内的算力扩展成为了不可忽视的问题。边缘机房的CPU开销暴增,但机房的供电和散热能力有限,无法像数据中心一样通过大量新增服务器提升算力。
如何扩展边缘云算力?
星融元的Helium DPU智能网卡为边缘云算力扩展难题提供了一个解决思路:提高单位空间的算力上限。
通过给X86服务器加装DPU智能网卡,将服务器上的网络应用功能卸载到DPU网卡上,并结合网卡的硬件加速引擎进行业务加速(例如深度解析业务报文,对音视频、网页数据进行流分类),在有限的机架空间内低成本地灵活扩展算力。
并且,多块DPU网卡存储的数据可通过PCIe共享到同一台服务器,以标准服务器+DPU的 “算力资源池" 形式接受云管平台纳管,实现"从云到边"的资源统一管理和分配。
当前,星融元已将Helium DPU智能网卡的软件和场景开源,欢迎各位行业伙伴与我们共创生态。
相关阅读:https://asterfusion.com/a20230411/
开源地址:https://github.com/asterfusion/Helium_DPU
提高单位设备算力,节约2/3机架空间
如下图所示,一台4U服务器最多可插8块DPU卡。
每块星融元Helium DPU卡集成24核ARMv8处理器(1.8Ghz),单卡可维护2500万在线会话,每秒新建会话40万,最高处理80Gbps。如此,加装Helium DPU智能网卡以后,单台4U服务器的高并发业务处理能力便可扩展640Gbps。
相比纯2U服务器方案,DPU资源池方案在提供同等接入能力的前提下仅占用原本1/3的机架空间。
机房整体建设和拥有成本降低50%
同样对比纯2U服务器方案,采用DPU资源池方案(4U服务器+8块DPU卡)同等接入规模下每年可节约50%以上的建设和能耗成本。
*服务器方案中,单2U服务器功耗约350W/h;DPU资源池方案,一台4U服务器+8块DPU卡总功耗约980W/h。
加速网络应用开发和移植
Helium DPU智能网卡提供全套的开发套件,客户无需关注底层开发环境,即可进行上层应用的开发及移植。
保证可编程性和性能的同时,无需像FPGA架构的智能网卡一样需要专业的开发团队支持,新版本交付周期小于1天。
算力扩展,不仅是在边缘云…
基于Helium的DPU资源池方案还可应用于云计算、5G UPF、网络可视等多种场景。
- 服务器CPU负责管理面业务及部分实时性要求不高的复杂计算业务
- Helium DPU卡负责网络数据转发面和控制面业务,并通过硬件加速协处理器进行应用加速
- 多块Helium DPU存储的数据通过PCIe共享到同一台服务器,实现资源共享
- 所有资源由云管平台纳管,完成计算、网络资源的统一管理和分配