- 博客(14)
- 收藏
- 关注
转载 使用 Red Hat OpenShift 和 NVIDIA BlueField DPU 加速云就绪基础设施和 Kubernetes
如果您的公司希望在数据中心采用云原生计算, NVIDIA BlueField DPU 、 Red Hat Enterprise Linux 和 Red Hat OpenShift 的组合将提供一个高效、创新的开放式混合云平台,具有新的安全功能。这个强大的平台提供硬件加速功能,以运行关键的软件定义的网络、存储和安全功能。现在,可以分配更多的服务器资源来运行云本地工作负载,以及传统的业务应用程序。
2023-05-12 11:41:33 351
原创 openvswitch流表转发原理
在过去10几年里面,虚拟化已经改变了应用,数据,服务的实现部署方式。据Gartner 2016的报道[1],80%的x86 workload已经是虚拟化,其中大部分是虚拟机,但是容器所占比例正以极快的增长速度。服务器的虚拟化给数据中心网络带来了根本性的变化。在传统的数据中心网络架构基础上,出现了一个新的,位于物理服务器内的接入层。这个新的接入层包含的设备是运行在x86服务器中的vSwitch,而这些vSwitch连接着一个服务器内的多个workload(包括容器和虚机)。
2023-04-06 10:48:10 637
原创 fidas :“软硬融合入侵检测卸载方案”
尤其是近年来基于阿里云软硬协同/融合基础上沉淀形成的磐久基础设施,已成为阿里云飞天操作系统统一高效的硬件基础,包括虚拟化场景下的网络/存储/安全的硬件卸载、存储压缩和Solar-RDMA网络协议的硬件卸载、多媒体/TEE/加解密的硬件卸载,以及计算和存储的软硬件一体的Aliflash等一批软硬融合的产品和解决方案在阿里云数据中心批量部署。另一方面,在流量分类上,我们创造性的提出基于Dual-stack的流量分类加速方案,实现了对不同冷热程度流量的高效分类,如下右图所示。
2023-02-16 10:25:46 394
原创 一文读懂RoCE,基于以太网的RDMA
RDMA(Remote Direct Memory Access),全称远端内存直接访问技术,可以在极少占用CPU的情况下,把数据从一台服务器传输到另一台服务器,或从存储到服务器。传统应用要发送数据,需要通过OS封装TCP/IP,然后依次经过主缓存、网卡缓存,再发出去。这样会导致两个限制。限制一:TCP/IP协议栈处理会带来数10微秒的时延。TCP协议栈在接收发送报文时,内核需要做多次上下文的切换,每次切换需要耗费5-10微秒。
2022-09-19 11:14:19 3564
原创 虚拟网络演进之路
本篇文章将带领大家了解以下网络设备虚拟化的演进之路,以及网络设备虚拟化发展的原因。本文是从全虚拟化->virtio->vhost->vfio->vdpa->vduse演进详细分析一下网络虚拟化的干货。序言设备虚拟化技术,云计算领域的核心之一。虚拟机里面的形形色色的设备,比如:网卡,磁盘,键盘,鼠标等,都是利用这项技术实现的,本文将从linux网络设备虚拟化的演进角度来看看,这发展的轨迹,网络虚拟化大体上分为三类,全虚拟化,半虚拟化,IO透传。全虚拟化场景下虚拟机操作系统不感知自己是虚拟机,半虚拟化虚拟机能感
2022-09-16 17:14:36 1468
原创 vdpa 框架详解
实现vdpa_config_ops总线操作集,将抽象的vDPA bus操作翻译为特定的平台或厂商的物理设备访问方式。•。
2022-09-16 16:30:01 2277 1
原创 图解DPU智能网卡,各种网络卸载细节
下图可以看出ovs全卸载到物理网卡上,并在arm操作系统中运行ovs以及相关的程序,通过流表的offload,将流表卸载到固件中,通过固件的eswitch类似于flowcache的过程将代码进行流表匹配,并通过固件转发到host主机上的其他应用中(虚拟机);BlueFiled DPU网卡可以从cpu上卸载关键的网络、存储和安全业务,使得企业能够将其IT基础设施转变为最先进的数据中心,单个DPU可以提供相当于125个cpu内核所提供的数据中心服务,由此释放宝贵的cpu内核.基于vxlan通道的全卸载。
2022-09-15 10:20:46 4739
原创 深入理解linux IO原理
关注笔者公众号可获取更多资料传统的 System Call I/O读操作写操作网络 I/O磁盘 I/O高性能优化的 I/O存储设备的 I/O 栈。
2022-09-15 10:16:37 242
原创 Linux 内核性能优化的全景指南
vmstat 命令是最常见的 Linux/Unix 监控工具,可以展现给定时间间隔的服务器的状态值,包括服务器的 CPU 使用率,内存使用,虚拟内存交换情况,IO读写情况。进程只有在调度到CPU上运行时才需要切换上下文,有以下几种场景:CPU时间片轮流分配,系统资源不足导致进程挂起,进程通过sleep函数主动挂起,高优先级进程抢占时间片,硬件中断时CPU上的进程被挂起转而执行内核中的中断服务。因此相比系统调用来说,在保存当前进程的内核状态和CPU寄存器之前,需要先把该进程的虚拟内存,栈保存下来。
2022-09-09 10:28:49 645
原创 想要了解dpdk,这篇文章就够了
DPDK是INTEL公司开发的一款高性能的网络驱动组件,旨在为数据面应用程序提供一个简单方便的,完整的,快速的数据包处理解决方案,主要技术有用户态、轮询取代中断、零拷贝、网卡RSS、访存DirectIO等。一、主要特点1、UIO(Linux Userspace I/O)提供应用空间下驱动程序的支持,也就是说网卡驱动是运行在用户空间的,减下了报文在用户空间和应用空间的多次拷贝。如图:DPDK绕过了Linux内核的网络驱动模块,直接从网络硬件到达用户空间,不需要进行频繁的内存拷贝和系统调用。根据官方给出的数
2022-09-02 15:15:45 912
原创 DPU应用场景(网络功能卸载)
网络功能卸载是伴随云计算网络而产生的,主要是对云计算主机上的虚拟交换机的能力做硬件卸载,从而减少主机上消耗在网络上的CPU算力,提高可售卖计算资源。图 云计算网络架构目前除了公有云大厂采用自研云平台,绝大部分私有云厂商都使用开源的OpenStack云平台生态。在OpenStack云平台中,虚拟交换机通常是Open vSwitch,承担着云计算中网络虚拟化的主要工作,负责虚拟机(VM)与同主机上虚拟机(VM)、虚拟机(VM)与其它主机上虚拟机(VM)、虚拟机(VM)与外部的网络通信。虚拟交换机与网关路由器(
2022-09-02 15:11:48 1084
原创 DPU智能网卡OVS全卸载方案
私有云和通信服务提供商正在改造其基础设施,以实现超规模公共云提供商的灵活性和效率。这种转变基于两个基本原则:分解和虚拟化。分解将网络软件与底层硬件分离。服务器和网络虚拟化通过使用 hypervisor 和 overlay 网络共享行业标准服务器和网络设备来提高效率。这些颠覆性功能提供了灵活性、灵活性和软件可编程性等好处。然而,由于基于内核的 hypervisor 和虚拟交换,它们也会对网络性能造成严重的影响,这两种方法都无法有效地消耗主机 CPU 周期进行网络数据包处理。
2022-09-02 15:10:22 2099
原创 bluefiled2 DPU网卡代表口方案
representor net-device 挂接到现有的switch结构上(Bridge, TC, OVS)并且通过现有接口,就可以控制VF的数据流量,可以通过管理VF representor的链接状态管理VF的链接状态,可以通过VF representor查看VF的统计(新的NL接口)未来会支持更多的属性,更多的对象(fdb, fib)会被 SRIOV VF reps 的 switchdev 支持并且接入到swithdev的卸载模型中。
2022-09-02 15:07:55 1362 1
原创 从DPU看未来网络架构的演进趋势
01从承载网聊起一般我们说到承载网,是指基站和核心网各网元之间的组网。手机通过空口接入基站,基站通过光纤、交换机,和核心网各网元进行组网,最后通过核心路由器,汇入互联网。如图1所示。从2G时代到5G时代,承载网技术在不断演进,如图2所示。图1 承载网位置图2 承载网技术演进路线图(图片来源:无线深海)SDH主要用在GSM/2G时代的语音承载(也叫CS电路交换,不是那个真人射击游戏CS,而是Circuit Switching),TDM时分复用、双向环状组网、块状帧结构,凭借着极高的服务质量和可管理性,一度统治
2022-08-07 22:28:21 573
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人