案例分析:谷歌如何应用SDN技术

Google使用Openflow技术来部署自己的数据中心网络的传说由来以及,但是一直没机会看到资料介绍相关的情况,今天终于看到了一个 google的PPT文档,介绍它的部署情况,不算太详细,但已经足以透露不少信息了。

闲来无事,分析一下,这个文档透露了以下信息:

1.Google的Openflow目前看起来仅仅用于WAN网络,包括面向Internet的和他们的不同数据中心之间的网络,貌似还没涉及到一个数据中心内部的网络。我觉得这是很明智的,内部的更复杂,可以一步一步来。

2.Google所用的Openflow交换机是定制的交换机,这些交换机所用的芯片都是商业ASIC,这意味着什么呢?意味着转发面的实现并不是使用标 准的Openflow Spec的方式,而是TTP的方式,即向上提供Openflow标准接口,但是芯片转发面并不是用标准的openflow流表,而是组合使用传统表项 (Mac, IP, ACL等)包装出Openflow flow来,估计做了不少扩展。(关于这第二点,这个PPT没提,是我从另外一个Nick McKeown写的paper看到的,那个paper提到了一句话,说google的Openflow交换机使用了商业ASIC)

3.Google这个网络架构是标准的SDN的架构,使用集中化controller,controller之上运行了很多 application,包括一些标准网络协议,他们明确提到的包括OSFP, BGP, ISIS,这些路由协议都来自于开源的quagga协议栈(也就是商业协议栈ZebOS的前身,现在仍在维护中)。

4.Google在这个事情上展现出了其强大的软件实力,他们用软件模拟了完整的数据中心网络,可以模拟任意拓扑,并且也仿真了交换机和交换芯片,用于模拟网络测试,同时完成了复杂的应用程序和控制器来控制网络。

交换机还支持Hitless upgrade,也就是说在线升级软件,应该说Google的网络模型别人也能模仿,但是这种强大的软件实力就不是别人轻易能模仿的了的,BTW他们的交换机的OS是Linux。

5.他们的部署分为三个阶段,第一阶段是2010年春天完成的,把Openflow交换机引入到网络里面,但是这个时候Openflow交换机对同网络中 的其它非Openflow设备表项的就像是传统交换机一样,只是网络协议都是在controller上完成的,外部行为来看表现的仍然像传统网络。第二阶 段是到2011年中完成,这个阶段引入更多流量到Openflow网络中,并且开始引入SDN管理,让网络开始向SDN网络演变。第三个阶段在 2012年初完成,整个WAN backbone网络完全切换到了Openflow网络,引入了Traffic Engineering,完全靠Openflow来规划流量路径,对网络流量进行极大的优化。看的出来,他们使用Openflow,最主要做的事情就是 Traffice Engineering,优化转发路径,其它的相对次要。

6.他们目前已经看到该网络带来的一些好处包括:网络带宽利用率大大提高,网络更稳定,管理简化了,Cost降低了,其它好处有待于进一步观察。

7.但是他们认为Openflow的部分潜在机会机已经得到验证和肯定,包括对整个网络的视图可以看得很清楚,可以更好地来做Traffice Engineering从而更好的进行流量管控和规划,更好的路由规划,能够清楚地了解网络里面发生了什么事情,包括monitering, alert。

8.他们也总结除了Openflow仍然需要提高改进的地方,包括OF协议仍然不成熟,Master的选举和 Control plane的责任划分仍有很多挑战,对于大型网络flow的programming会速度比较慢,到底哪些功能要留在交换机上哪些要移走还没有一个很科学 的划分,但是他们认为,这些问题都是可以克服的。

9.最后他们得出了几个结论: Openflow is ready for real-world use. SDN is ready for real-world use. Google的数据中心WAN网络已经成功地基于Openflow搭建起来了。

总的看来,Google的报告对SDN和Openflow是正面的,积极向上的,用经济术语来说,是重大利好。




目录: 01 SDN环境下,对Sping进行流量统计 02 SDN下手动创建浮动IP和CloudOS公网IP地址冲突解决方案 03 ADDC方案SDN控制器在虚拟路由器 04 云平台没有配置防火墙下行网络地址池导致SDN控制器创建网关资源失败问题 05 H3C SDN网络overlay组网Oracle 11g RAC集群业务无法正常运行经验案例 06 SDN集中控制模式网络Overlay组网网关上做静态路由负载均衡失败处理经验案例 07 SDN网络VCFC强控方案下S9800部分流量三层转发不通问题分析 08 SDN网络VCFC强控方案下由于S6800 ACL资源不足导致虚机不能上线案例分析 09 某局点VCFC控制器扫描到Apache Tomcat文件包含漏洞(CVE-2020-1938)的经验案例 10 ADDC5.3方案中控制器对应下发的组播配置 11 SDN网络VCFC强控方案下控制器创建VFW导致虚机访问网关S12508F-AF不通案例分析 12 某局点adcampus 5.0方案下东西向流量不通的经验案例 13 ADDC5.0 Underlay自动化失败问题的经验案例 14 某局点VXLAN组网流量突增问题 15 云网融合环境中通过配置跨虚拟路由器互通实现不同租户之间的业务互通 16 知 H3C ADDC强控网络overlay组网环境微软故障转移集群业务无法正常运行经验案例 17 分布式网关DHCP Relay方案 18 H3C VCFC 第三方防火墙方案,流量不通问题的经验案例 19 H3C VCF控制器IPS AV功能配合服务链典型配置 20 H3C VCF控制器集群典型配置(单网卡、双网卡) 21 VCF控制器安装在虚拟机环境上资源扩展操作典型配置 22 VCFC配置SYSLOG服务器监控Openflow的Packet-In限速告警典型配置举例 23 命令行配置EVPN VxLAN的典型配置案例 24 Overlay网络中IPGW上vxlan forwarding 命令使用经验案例
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值