MySQL作为新的NoSQL解决方案:轻松应对亿级数据 MySQL现在是一个更好的NoSQL解决方案。我们这样说是因为在存储 键/值(key/value) 之类数据时, MySQL 具有性能、易用性和稳定性方面的优势。MySQL引擎稳定可靠,并且社区和官方支持良好,有非常丰富的在线资料, 涵盖了各种操作、故障排查,复制以及各种使用模式等方面。基于这个原因, MySQL比起新兴的NoSQL引擎具有很大优势。近年来,NoSQL引擎已成为主流。许多开
关于PostgreSQL与MongoDB在NoSQL方面的简单对比 来自: http://my.oschina.net/rocky0202/blog/614041摘要: 根据网上材料总结,加上个人理解,关于PostgreSQL与MongoDB在NoSQL方面的简单对比。之前我们在和开发团队所设计框架里面的MongoDB标准组件PK时,曾经找了一些PG与MongoDB的对比材料。今天得空又具体看了下,简单总结一下,供大家借鉴参考:
智能城市方案:OpenStack合力K8s打造IoT平台 物联网(IoT)是云计算领域的“下一件大事”。领先的行业供应商都提供了自己的IoT解决方案,并将其视作自己的业务战略。因此IoT这个词已经被滥用成为描述不同供应商专有解决方案的一个新流行词汇。“IoT”这个词几乎可以代表一切,甚至比“云计算服务”更加空泛。物联网主要围绕日益增加的计算机间通信,可通过用于收集数据传感器的网络和连接到云计算服务的执行程序处理各类信息。这个技术可以让我们生活中的一切,从
websockert 1、HTTP协议对长连接的支持以及各浏览器的支持情况http://blog.csdn.net/fenglibing/article/details/71002222、WEB客户端与服务端信息交互的几种方式1)、Flash XMLSocket入门示例:http://en.wikipedia.org/wiki/XMLSocket不足:a)、客户端必须安装 Fla
API设计:Swagger, Blueprint和RAML SwaggerSwagger与RAML相比,RAML解决的问题是设计阶段的问题,而Swagger则是侧重解决现有API的文档问题,它们最大的不同是RAML需要单独维护一套文档,而Swagger则是通过一套反射机制从代码中生成文档,并且借助ajax可以直接在文档中对API进行交互。因为代码与文档是捆绑的所以在迭代代码的时候,就能方便的将文档也更新了。不会出现随着项目推移代码与文档不匹配的问题
使用 API 网关构建微服务 & 微服务架构中的进程间通信 本期内容微服务系列文章的第一篇介绍了微服务架构模式,讨论了使用微服务的优缺点,以及为什么微服务虽然复杂度高却是复杂应用程序的理想选择。在决定以一组微服务来构建自己的应用时,你需要确定应用客户端如何与微服务交互。在单体式程序中,通常只有一组冗余的或者负载均衡的服务提供点。在微服务架构中,每一个微服务暴露一组细粒度的服务提供点。在本篇文章中,我们来看它如何影响客户端到服务端通信
服务发现的可行方案以及实践案例 & 微服务架构的优势与不足 英文原文:Introduction to Microservices 这篇文章作者是Chris Richardson,他是早期基于Java的Amazonite EC2 PaaS平台CloudFoundry.com的创始人。现在他为企业提供如何开发和部署应用的咨询服务。他也经常在http://microservices.io上发表有关微服务的文章。 微服务正在博客、社交媒体讨论组
微服务&soa docker apigateway SOA:面向服务架构,java级企业开发的首选。微服务:采用一组服务的方式来构建一个应用,服务独立部署在不同的进程中,不同服务通过一些轻量级交互机制来通信,例如 RPC、HTTP 等,服务可独立扩展伸缩,每个服务定义了明确的边界,不同的服务甚至可以采用不同的编程语言来实现,由独立的团队来维护。简单的来说,一个系统的不同模块转变成不同的服务!而且服务可以使用不同的技术加以实现!SOA我想我就
架构演化中的软件设计原则 【编者的话】本文来自Firat Atagun的《架构演化中的软件设计原则》,文中给出了软件架构演化过程中出现的4种经典架构,就每种架构,分析了其主要特点并在几个度量维度给出结论。在文章的最后,Firat Atagun给出了4种架构的多维对比。本文的完整演讲稿是架构演化中的软件设计原则。1 分层架构分层架构是最常见的架构,也被称为n层架构。多年以来,许多企业和公司都在他们的项目中使用
有效定位和解决OpenStack问题 对OpenStack这样一个庞大的系统来说,遇到问题很正常,如何对遇到的问题进行精确的定位和解决才是关键?但在很多时候,从用户表象上看到的现象和后端真正的错误往往会有一些偏差。本文以OpenStack虚拟机启动工作流为基础,对OpenStack troubleshooting做一个介绍。从了解整个OpenStack中最核心的虚拟机管理,来对整个OpenStack的设计架构有个了解,为今后更复杂的问
高性能网关设备及服务实践 一、引言随着互联网的高速发展,内容量的提升以及对内容智能的需求、云产业的快速突起,作为互联网的计算基石服务器的形态以及使用成为了炙手可热的话题,全球各家大型互联网公司都持续的在服务器平台上有非常大的动作,譬如facebook的OCP等,而整个服务器的生态链也得到了促进和发展。随着服务器硬件性能的提升和网络硬件的开放,传统PC机的处理性能甚者可以和网络设备相媲美。另一方面SDN技术的发展,基
APP界面设计之页面布局的22条基本原则 移动APP页面布局(Layout)是我们设计app界面的时候,最主要的设计任务。一个app的好与不好,很大部分取决于移动APP页面布局的合理性。下图为APP最原始的布局模型。页面布局顾名思义就是对页面的文字、图形或表格进行排布、设计。优秀的布局,需要对页面信息进行完整的考虑。即要考虑用户需求、用户行为,也要考虑信息发布者的目的、目标。对用户行为的迎合和引导,有一些既
重磅:虚拟化交换机性能优化 嘉宾介绍:刘年超,现任职中兴通讯云计算&政企业务产品部,负责云数据中心产品架构规划,见证公司基于SDN架构云数据中心从无到有。目前对Openstack、KVM、vSwitch、SDN/NFV 、分布式存储及IDC虚拟化网络解决方案优化均有浓厚的兴趣和深入的研究。分享主题:虚拟化交换机性能优化探讨网络性能瓶颈在哪儿网络加速设计核心思
Kubernetes系统架构简介 1. 前言Together we will ensure that Kubernetes is a strong and open container management framework for any application and in any environment, whether in a private, public or hybrid cloud.Ur
Kubernetes应用部署模型解析(原理篇) 十多年来Google一直在生产环境中使用容器运行业务,负责管理其容器集群的系统就是Kubernetes的前身Borg。其实现在很多工作在Kubernetes项目上的Google开发者先前就在Borg这个项目上工作。多数Kubernetes的应用部署模型的思想都起源于Borg,了解这些模型是掌握Kubernetes的关键。Kubernetes的API版本目前是v1,本文以代码0.18.2版为基础来介
服务器网卡收包性能测试 之前写过不少跟网络相关的 benchmark,比如:* 《网络质量评估》* 《10G(82599EB) 网卡测试优化(总)》上面的更多的是放在带宽使用率上,即如何尽可能的打满,但是都遗漏一个重要的细节,那就是 packet/s,这个论坛的作者一语中的:– how many packets/sec you have. In fact, network throughput m
深入浅出 Kubernetes 架构 作者介绍王渊命,团队协作IM服务Grouk联合创始人及CTO,技术极客,曾任新浪微博架构师、微米技术总监。2015年作为联合创始人创立团队协作IM服务Grouk,长期关注团队协作基础工具和研发环境建设,Docker深度实践者。正文最近研究了一段时间的Kubernetes,将我们服务的测试环境服务部署到了Kubernetes上,上周末在团队中分享了下,顺便整理成文
virtio,vhost 和vhost-user 随着qemu2.1的发布,可以看到,qemu支持了vhost-user。从介绍可以看出,这是把原来vhost-backend从kernel移到了userspace,这和原来virtio架构有什么区别呢?并且这个特性带来了怎样的改进?virtio在虚拟机中,可以通过qemu模拟e1000网卡,这样的经典网卡一般各种客户操作系统都会提供inbox驱动,所以从兼容性上来看,使用类似e10
Cordova + Ionic + AngularJS 本文是一篇关于我本人在使用 Cordova + Ionic 以及 AngularJS 开发移动App的过程中的经验的总结,它不是一篇基础入门教程,而是和大家探讨一下关于如何更好的使用这些技术开发一个更好的App,文章会每天抽一点时间完成,如果您有什么问题或者想与我交流的经验,欢迎随时在本文下方评论或者邮件给我:54778899 [at] qq.com。声明:这是一篇中立的文章,我无意于挑起
NFV报告 1 报告概述《2015年网络功能虚拟化(NFV)报告》将为读者提供关于NFV市场的发展趋势,以及目前取得进展等方面的观点。我们已经开始看到,在运营商,甚至在企业网上,越来越多的概念验证(POC)已经进行了尝试。因此目前非常重要的一件事情,就是认识到NFV对于整个网络产业所带来的巨大变化。NFV以软件的方式实现网络的功能,因此能够部署在虚拟环境,以及通用的标准硬件上。这能够满足运营商
千万并发的秘密-内核是问题的根本 我们现在已经搞定了 C10K并发连接问题 ,升级一下,如何支持千万级的并发连接?你可能说,这不可能。你说错了,现在的系统可以支持千万级的并发连接,只不过所使用的那些激进的技术,并不为人所熟悉。要了解这是如何做到的,我们得求助于Errata Security的CEO Robert Graham,看一下他在 Shmoocon 2013 的绝对奇思妙想的演讲,题目是 C10M Defen
无网不通,有网则顺:OpenStack Neutron解析 摘要:了解Neutron的功能和部署方式,是企业OpenStack系统的规划、部署和运维需要修炼的内功。在本文中,Neutron“大师兄”龚永生为我们详细介绍了Neutron的技术原理和发展方向,主要涉及使用、部署和运维三个层面的内容。【编者按】Neutron是OpenStac环境的核心组件之一,了解Neutron的功能和部署方式,是企业OpenStack系统的规划、部署和运维需要修炼
图解几个与Linux网络虚拟化相关的虚拟网卡-VETH/MACVLAN/MACVTAP/IPVLAN Linux的网卡驱动中内含了很多“虚拟网卡”。早先的文章曾经详细分析过tun,ifb等虚拟网卡,类似的思路,在虚拟化大行其道的趋势下,Linux源码树中不断增加对“网络虚拟化”的支持,不光是为了支持“虚拟机”技术,更多的是给了用户和程序员更多的选择。这些对网络虚拟化的支持技术包括任何重量级的虚拟化技术,比较重的比如对虚拟机技术的支持,轻量级的则是net namespace技术。近期的工作基于n
websocket 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。作者:Ovear链接:http://www.zhihu.com/question/20215561/answer/40316953来源:知乎一、WebSocket是HTML5出的东西(协议),也就是说HTTP协议没有变化,或者说没关系,但HTTP是不支持持久连接的(长连接,循环连接的不算)首先HTTP有
Linux转发性能评估与优化-转发瓶颈分析与解决方案(补遗) 补遗关于网络接收的软中断负载均衡,已经有了成熟的方案,但是该方案并不特别适合数据包转发,它对服务器的小包处理非常好,这就是RPS。我针对RPS做了一个patch,提升了其转发效率。下面是我转载的我自己的原文。线速问题很多人对这个线速概念存在误解。认为所谓线速能力就是路由器/交换机就像一根网线一样。而这,是不可能的。应该考虑到的一个概念就是延迟。数据包进入路由器或
Docker vs Vagrant 在阅读过现有的一些关于“Docker vs Vagrant”的博客后,我决定写一篇文章来阐明这两种技术并非彼此竞争而是相互补充。 首先我会参照这两项技术在各自主页上的介绍,进行简单的总结。然后,我会简略地介绍如何将这两种技术同时应用到生产环境中。 Vagrant Vagrant 基于行业技术标准提供了易于配置、可量产、并且可移植的工作环境,并且由一个统一的
OVN & midonet OVS团队在这周启动了OVS下的一个崭新的子项目,用来给OVS这款在OpenStack项目广泛使用的虚拟交换机引入一个轻量级的控制平面,致力于提高基于OVS的OpenStack网络方案的扩展性和易用性,同时也为分布式路由等走捷径似的转发提供了可能性。对于这个新项目的出现,除了对可生产部署的时间我稍表示担忧外(毕竟现在还只是在架构层面,代码还未启动编写,当然这是参与这个项目的好机会),我对其
openstack的lbaas疑问 1 为什么lbaas的haproxy实现没有将其放到vrouter中,而vpnaas/fwaas都放到vrouter中呢?放在vrouter上,可以减少vrouter到haproxy的流量路径,是怕vrouter越来越庞大么?还是架构有冲突,vpn的agent替换了l3-router,不能和lbaas-agent一起用? 尝试了下,直接放到vrouter中也是可以的,哪种是趋势?
OpenStack 网络实现:VXLAN 模式 VXLAN 模式下,网络的架构跟 GRE 模式类似,所不同的是,不同节点之间通过 VXLAN 隧道互通,即虚拟化层是采用的 VXLAN 协议。基本结构如下图所示。其中,节点网络配置如下所示,注意数据网络接口需要 IP 地址,因为是隧道协议需要底下的三层转发支持。控制节点eth0: 9.186.100.77/24 作为管理网络(同时也是公共网络)。
DVR SNAT避免东西向流量的一种方案 有个初步的想法,不知道是否可行;每个有snat需求的vnet所在的计算节点上创建个共用的snat nm,占用一个openstack管理的外部ip供作snat使用;多个租户可能会共享一个外部ip,一个租户的vm如果分散在多个计算节点上,会用掉多个外部ip;
Neutron/DVR L2 Agent https://wiki.openstack.org/wiki/Neutron/DVR_L2_Agent?cm_mc_uid=98045490823414415953836&cm_mc_sid_50200000=1444277479目录 [隐藏] 1 Authors2 Purpose3 Design Goals for L2 in DVR4 How Distribu
理解openstack网络 OpenStack网络配置:一个tenant, 2个虚机Type driver: GRE, Mechanism driver: OVS一个public network: ext-net 和相应的subnet ext-subnet一个VM network:demo-net 和相应的subnet:demo-subnet一个router连接ext-subnet和demo-subnet
OpenDaylight融合OpenStack架构分析 OpenDaylight融合OpenStack架构分析SDNLAB君• 15-06-09• 2,524 人围观OpenStack和OpenDaylight(ODL)的融合是一个热门话题,有大量的文档可供参考,但是这些文章主要对其使用方面进行阐述,而没有讲如何实现OpenStack和ODL的融合。本文将详细说明如何实现不同组件的融合。ODL和O
ArchSummit干货分享:通向企业级的OpenStack网络服务 写在前面的话在周六落幕的ArchSummit深圳站上,Unitedstack有云的网络工程师王为进行了关于OpenStack网络的主题演讲《通向高可用与分布式的OpenStack网络服务》,对OpenStack的网络发展做了一个综合性的总结和比较,也解答了对于OpenStack网络复杂、Neutron难维护、Overlay网络性能低下的疑问。前言当我们提到 OpenStac
openstack网络模型 一、OpenStack网络设备的命名规律:1、TenantA的router和Linux网络命名空间qrouter名称root@controller:~# neutron --os-tenant-name TenantA --os-username UserA --os-password password --os-auth-url=http://localhost:5000/v
openstack+opendaylight+ovsdb部署 环境:centos7+openstack-kilo+opendaylight-distribution-karaf-0.3.1-Lithium-SR1+ovsdb管理网络controlnode:192.168.88.162nova1:192.168.88.166nova2:192.168.88.167networknode:192.168.88.168sdn contr
SDN实战团分享(一):OpenStack网络服务数据平面加速 【编者的话】本文系SDN实战团微信群(团主张宇峰@brocade)组织的首次线上技术分享整理而成,由IBM云网络服务团队资深架构师唐刚将其团队内部对于如何在openstack环境下实现高性能的网络服务而做的研究进行分享。分享嘉宾--------------------------------------------------------------------------------
全融合网络虚拟化技术 服务器虚拟化技术 使CPU、内存、磁盘、I/O等硬件变成可以动态管理的“资源池”,从而提高资源的利用率,让IT对业务的变化更具适应力。 IT系统是由网络服务器存储等诸多因素组成的,局部的创新并不会带来IT系统的整体升级,于是存储也需要虚拟化,而网络也需要革新来满足IT系统整体性能升级。一、 服务器虚拟化带来的问题大二层技术的部署问题将多台服务器虚拟化为一个资源池需要所有
OpenDaylight中MD-SAL学习笔记 1 前言在学习OpenDaylight的过程中,总是遇到AD-SAL( API-Driven SAL)和MD-SAL(Model-Driven SAL)等概念。在努力查找资料学习之后,有了一点学习笔记,写出来加深印象。同时也给同样迷惑的同学一点帮助。2 About MD-SALMD-SAL使得在SDN控制器那些丰富的服务和模块可以使用统一的数据结构和南向和北向的API。
千万级并发实现的秘密:内核不是解决方案,而是问题所在! 摘要:C10K问题让我们意识到:当并发连接达到10K时,选择不同的解决方案,笔记本性能可能会超过16核服务器。对于C10K问题,我们或绕过,或克服;然而随着并发逐渐增多,在这个后10K的时代里,你是否有想过如何去克服C10M。既然我们已经解决了 C10K并发连接问题,应该如何提高水平支持千万级并发连接?你可能会说不可能。不,现在系统已经在用你可能不熟悉甚至激进的方式支持千万级别的并发连
openstack 网络架构 nova-network + neutron openstack网络架构(nova-network/neutron)openstack网络体系中,网络技术没有创新,但用到的技术点非常庞杂,包括bridge、vlan、gre、vxlan、ovs、openflow、sdn、iptables等,当然这里不会做具体技术介绍,概述技术,主要将其与openstack的结合点做详细分析。nova-network网络架构在nova-n
google开源web安全扫描工具skipfish简介 原 荐 google开源web安全扫描工具skipfish简介发表于6小时前(2015-06-17 02:46) 阅读( 48 ) | 评论( 0 ) 0 人收藏此文章,赞 0寻找 会’偷懒’的开发者线下公开课,报名即享受免费体验云主机摘要Skipfish是一个积极的Web应用程序的安全性侦察工具。 它准备了一个互动为目标的网站的站点地图进行一个递归
jdb 调试java 一直在gdb 下调试c/c++程序。突然要写个java程序,又不是很喜欢使用eclipse,那怎么调试程序呢。你还可以使用 jdb。它是jdk 内置的一个java debug工具。类似与 gdb。不过功能稍弱,但也已经很值得敬佩了。假如你的java源代码是 hello.java 文件。那么你需要编译的时候加上 -g 选项。这一点和 gdb 一致。怎么做?javac
新形势下,互联网公益应该怎么做? 互联网是把双刃剑大型纪录片《互联网时代》向我们展示了一个已经如潮水般涌入人们工作和生活缝隙的信息技术革命,如何颠覆性地逐个改造每一个行业,改变着我们的生活方式。可以毫不夸张地说,我们进入了一个由互联网带来的社会变革时代。分享和创造是人类的天性。互联网提供了低成本、高便捷的信息交互和价值交换平台,以往被浪费掉的认知盈余和价值盈余迅速得到分享,从而实现个人价值和
搭建基于Open vSwitch的VxLAN隧道实验 搭建基于Open vSwitch的VxLAN隧道实验偶然左岸• 14-12-19• 3,620 人围观1. VXLAN简介VXLAN 是 Virtual eXtensible LANs 的缩写,它是对 VLAN 的一个扩展,是非常新的一个 tunnel 技术,在Open vSwitch中应用也非常多。Linux 内核的 upstream
casperjs小结 官网http://casperjs.org/分享http://download.csdn.net/detail/xiarendeniao/5781445环境:[plain] view plaincopy[dongsong@localhost ~]$ casperjs --version 1.0.0-RC2 [dongsong@localhost
RabbitMQ 引言你是否遇到过两个(多个)系统间需要通过定时任务来同步某些数据?你是否在为异构系统的不同进程间相互调用、通讯的问题而苦恼、挣扎?如果是,那么恭喜你,消息服务让你可以很轻松地解决这些问题。消息服务擅长于解决多系统、异构系统间的数据交换(消息通知/通讯)问题,你也可以把它用于系统间服务的相互调用(RPC)。本文将要介绍的RabbitMQ就是当前最主流的消息中间件之一。RabbitMQ
opentack neutron环境 Neutron是OpenStack核心项目之一,提供云计算环境下的虚拟网络功能。Neutron的功能日益强大,并在Horizon面板中已经集成该模块。作为Neutron的核心开发者之一,个人觉得Neutron完全代替Nova Network模块作为云计算网络管理中心是必然趋势。要使用好OpenStack,了解Neutron概念及其相应操作就显得格外重要。为此目的,这篇博客主要讲述Neutron网络
python @修饰符 Python 除了拥有实例方法外,还拥有静态方法和类方法,跟Java相比需要理解这个类方法的含义。class Foo(object): def test(self)://定义了实例方法 print("object") @classmethod def test2(clss)://定义了类方法 print("class"
Neutron印象10: OpenStack中实现混合Hypervisor原理剖析 作者:张华 发表于:2014-01-15版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本版权声明( http://blog.csdn.net/quqi99 )先搞清楚nova及neutron相关组件的关联关系:1,当创建network时,neutron-api在DB里仅仅就是记录一下;2,然后l3-agent会周期性的扫描router, 然后调用
python urllib2使用细节 Python 标准库中有很多实用的工具类,但是在具体使用时,标准库文档上对使用细节描述的并不清楚,比如 urllib2 这个 HTTP 客户端库。这里总结了一些 urllib2 库的使用细节。1 Proxy 的设置2 Timeout 设置3 在 HTTP Request 中加入特定的 Header4 Redirect5 Cookie6 使用 HTTP 的 P
openstack之存储 OpenStack提供两种块存储: ephemeral storage和volumes storage.ephemeral storage 具有和实例相同的生命周期,重启实例并不会影响ephemeral storage中存储的内容,但终结实例的时候ephemeral storage也会随之被释放掉,所有的实例又会有一个ephemeral storage,但其大小可以设置为0。volumes s
Neutron印象9:neutron ml2 在介绍ml2之前,先介绍下以往的core-plugin,它主要的工作是与数据库打交道,真正起作用的是agent,然而对于每种core-plugin来说他们绝大部代码是重复的,在实际的网络部署中,想用linuxbridge就不能用openvswitch,想用vlan就不能用gre。Ml2插件就可以很好解决这样的问题,在复杂的二层网络中可以灵活地部署网络。Ml2插件是一种允许OpenStack网络
openstack分析——NOVA中的RabbitMQ解析 抓http://blog.csdn.net/gaoxingnengjisuan 本篇文章是由本人阅读NOVA源码过程中的心得、RabbitMQ的官方文档以及网上的一些资料整理总结而成的,也为了方便以后对这部分内容的复习。 NOVA是OpenStack系统的核心模块,主要负责虚拟机实例的生命周期管理、网络管理(前几个版本)、存储卷管理(前几个版本)、用户管理以及其
Neutron印象8: OpenStack中的防火墙 OpenStack中的防火墙 ( by quqi99 )作者:张华 发表于:2012-4-10版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本版权声明( http://blog.csdn.net/quqi99 )iptables提供了全面的协议状态跟踪、数据包的应用层检查、速率限制、过滤策略。iptables策略是由一组有序的规则建立的,它告诉内
Neutron印象5:neutron-dhcp-agent 一.概述neutron dhcp为租户网络提供DHCP服务,即IP地址动态分配,另外还会提供metadata请求服务。3个主要的部件:DHCP agent scheduler:负责DHCP agent与network的调度DHCP agent:为租户网络提供DHCP的功能,提供metadata request服务。DHCP driver:即dnsmasq,用于管理DHCP se
Neutron印象4:neutron-openvswitch-agent neutron-openvswitch-agent代码分析neutron.plugins.openvswitch.agent.ovs_neutron_agent:main# init ovs first by agent_config:# setup plugin_rpc, state_rpc, msgq consumer, periodically state report#
Neutron印象3:neutron-l3-agent 一.Layer-3 Networking Extensionneutron l3作为一种API扩展,向租户提供了路由和NAT功能。l3扩展包含两种资源:router:在不同内部子网中转发数据包;通过指定内部网关做NAT。每一个子网对应router上的一个端口,这个端口的ip就是子网的网关。floating ip:代表一个外部网络的IP,映射到内部网络的端口上。当网络的rou
Neutron印象2:Neutron/ServiceInsertion 目录1WORK IN PROGRESS2Services Insertion Model in Quantum2.1Description2.2High level description2.3Defining Service Insertion2.4The Service Type concept2.5Dispatching calls to th
Neutron印象6: LBaaS Service 在OpenStack Grizzly版本中,Quantum组件引入了一个新的网络服务:LoadBalancer(LBaaS),服务的架构遵从Service Insertion框架。LoadBalancer为租户提供到一组虚拟机的流量的负载均衡,其基本实现为:在neutron-lbaas-agent中生成Haproxy的配置文件然后启动Haproxy。Neutron LBaaS Service
openstack Networking in too much detail Contents1The players2The lay of the land3Compute host: instance networking (A,B,C)4Compute host: integration bridge (D,E)5Compute host: tunnel bridge (F,G)6Network host: tunnel bridg
Neutron印象1:neutron简介 在OpenStack世界中,网络组件最初叫nova-network,它混迹于计算节点nova的代码库中。nova-network可以单独部 署在一台机器上,为了高性能HA也可以和nova-compute一样部署在计算节点上(这也就是所谓的multi-host功能)。nova- network实现简单,bug少,但性能可不弱哦,直接采用基于Linux内核的Linux网桥少了很多层抽象应该算强大的
OpenStack Hacker养成指南 希望本文能够解开你心中萦绕已久的心结,假如是死结,请移步到 https://wiki.openstack.org/wiki/Main_Page学习OpenStack其实就是学习各种Python库的过程。把OpenStack的设计原则贴在你的墙上。 https://wiki.openstack.org/wiki/BasicDesignTenets1 OpenStack Hac
openstack 之 eventlet 激励自己的话:站在nova的源码面前,不知该从何处开始,木有资料,木有人指导,只能自己去摸索。nova中,除了mysql是我以前就熟知的之外,其它全是陌生,这对我来说,真是一个不小的挑战。另外,就是看英文文档,就好像干嚼馒头一样,嚼得久了,才会觉得它甜,这也实在是没有办法。登山的乐趣不在于到达山顶,而在于到达山顶的过程中,在此记录这个过程,希望我可以走到最后!
openstack调试方法总结 因为前几天Komodo突然一下在使用中没法代码自动补全,没法进行代码自动提示了,自己折腾了(大概十个小时,卸载重装了很多次)很久也没法让它对python代码进行自动提示,很无语,于是彻底放弃,改用Eclipse+pyDev平台。虽然浪费了时间,但是已经对Eclipse有些熟练了,还是有所收获哦。 Python的安装比较简单,因此python的安装就不说了,Eclipse的基础环境,JRE
OpenContrail 体系架构文档 英文原文:http://opencontrail.org/opencontrail-architecture-documentation/翻译者:@KkBLuE知行合一 其微信号:kkbluepublic, SDNAP.com翻译整理1 概述1.1 使用案例1.2 OpenContrail控制器和vRouter1.3 虚拟网络1.4 Overlay
Open vSwitch使用笔记 1. OpenvSwitch介绍1.1虚拟化网络架构图1.2 OpenvSwitch功能介绍2. 安装,启动,关闭2.1 源码安装2.2 apt安装2.3 启动脚本2.4 关闭脚本2.5 virsh启动3. 配置,使用3.1流规则3.2VLAN3.3 sflow3.4接入物理机4
ovs:Frequently Asked Questions Open vSwitch ==========================General-------Q: What is Open vSwitch?A: Open vSwitch is a production quality open source software switch designed to be used as a vswitch in virtua
基于 Open vSwitch 的 OpenFlow 实践 Open vSwitch 概述Open vSwitch(下面简称为 OVS)是由 Nicira Networks 主导的,运行在虚拟化平台(例如 KVM,Xen)上的虚拟交换机。在虚拟化平台上,OVS 可以为动态变化的端点提供 2 层交换功能,很好的控制虚拟网络中的访问策略、网络隔离、流量监控等等。OVS 遵循 Apache 2.0 许可证, 能同时支持多种标准的管理接口和协议。OVS 也
An overview of Openvswitch implementation This is NOT a tutorial on how to use openvswitch, this is for developers who want to know the implementation details of openvswitch project, thus, I assume you at least know the basic concepts of open
深入浅出解析OpenFlow OpenFlow所面临的挑战OpenFlow标准的不成熟,在控制层面也有不少体现,尽管体现的不如转发层面那么明显。根据对OpenFlow标准的分析以及一些实际部署案例的反馈,OpenFlow在控制面还存在如下不足:Master(主)和Slave(备)Controller的选举机制还不够成熟,都没有标准来定义。Controller的集中式控制,理论上肯定会有可扩展性问题,分布式控制又跟S
Software-Defined Networking Software-Defined NetworkingNetwork intelligence is (logically) centralized in software-based SDN controllersnetwork operators and administrators can programmatically configure this simplifie
公有云的网络 原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://bengo.blog.51cto.com/4504843/891398借用朋友石头的一句话,“一个公有云做的好不好,可以看看它的网络和存储。”的确,不论你用KVM还是Xen,计算虚拟化都做的很好了,用户在不同公有云中关于计算性能的体验,主要源于资源配给。关于
漫步云中网络 本文不会讲解每一种网络技术的细节,也不会讲解 Neutron 网络的实现细节,而是高度概括这些基础网络技术的技术本质,试图帮您在这些网络技术和 Neutron 之间建立更高级别的联系,让大家举重若轻,全局系统把握 Neutron。所以阅读本文前,了解以下知识将有助于本文的理解:了解 OSI 七层模型,了解基本的 L2 层帧转发、L3 层路由转发等网络基础知识。了解 Neutron 网络或者
虚拟机基准测试工具 现在大家都从共享主机慢慢转移到Linux VPS了。虽然各VPS主机提供商出售的VPS主机配置都大同小异,除了硬盘容量,带宽之外,Linux VPS性能又如何来衡量呢?这里推荐给大家一款Linux VPS性能测试软件UnixBench。一.VPS性能测试软件Unixbench介绍UnixBench的目的是给类Unix系统的性能提供一种基本的指标; 因此,多个测试被用于测试系统性能的各种各
Linux 上虚拟网络与真实网络的映射 使用 Linux 上的网络设备模拟真实网络随着云计算技术的发展,如何以类似物理网络的方式分割虚拟网络成为热点,物理网络也引入了更多支持虚拟化的网络技术,使得问题更加复杂。本文将阐述在 Linux 上如何模拟出传统网络及支持虚拟化技术的网络 ,并介绍其原理。虚拟化环境中的网络问题在提供 IaaS 服务的云计算环境中,每个用户都能得到一个虚拟的计算机,而这些虚拟机器以密集的
tun/tap macvtap macvlan TUN/TAP虚拟网络设备为用户空间程序提 供了网络数据包的发送和接收能力。他既可以当做点对点设备(TUN),也可以当做以太网设备(TAP)。实际上,不仅Linux支 持TUN/TAP虚拟网络设备,其他UNIX也 是支持的,他们之间只有少许差别。原理简介TUN/TAP虚拟网络设备的原理比较简单, 他在Linux内核中添加了一个TUN/TAP虚拟网络设备的驱动程序和一个 与之相关连的
libvirt http://www.libvirt.org/formatnetwork.html说明:下面的东西开始有顺序,逻辑,说明,以及解释 0x001 libvirt网络基本概念 libvirt默认使用了一个名为default的nat网络,这个网络默认使用virbr0作为桥接接口,使用dnsmasq来为使用nat网络的虚拟机提供dns及dhcp服务,dnsmas
防火墙性能 带宽就是传输速率,是指每秒钟传输的最大比特数(bit/S),即每秒处理多少位数据,高带宽则意味着系统的高处理能力。为了更形象地理解带宽、位宽、时钟频率的关系,我们举个比较形象的例子,工人加工零件,如果一个人干,在大家单个加工速度相同的情况下,肯定不如两个人干的多,带宽就像是工人能够加工零件的总数量,位宽仿佛工人数量,时钟工作频率相当于加工单个零件的速度,位宽越宽,时钟频率越高则总线带宽越大,其好处
NAPI相关 NAPI:首先说一下它出现的原因:接收通过中断来进行,当系统有一个处理大流量的高速接口时, 会一直有更多的报文来处理. 在这种情况下没有必要中断处理器; 时常从接口收集新报文是足够的.使用的条件:接口必须能够存储几个报文( 要么在接口卡上, 要么在内存内 DMA 环).接口应当能够禁止中断来接收报文, 却可以继续因成功发送或其他事件而中断.在net/core
PCI总线 PCI总线一 20, 2013~ Written by li, PC外设互联标准(或称个人电脑接口,Personal Computer Interface),实际应用中简称为PCI(Peripheral Component Interconnect),是一种连接电子计算机主板和外部设备的总线标准。一般PCI设备可分为以下两种形式:直接布放在主板上的集成电路,在 PCI 规范中称
linux 上下文和自旋锁 因此,中断(或软中断)禁止用于防止同一CPU上中断(或软中断)对共享资源的非同步访问。而自旋锁则防止在不同CPU上的执行单元对共享资源的同时访问,以及不同进程上下文互相抢占导致的对共享资源的非同步访问。在对称多处理器,仅仅禁止某个CPU的中断是不够的,当然我们也可以将所有CPU的中断都禁止,但这样做开销很大,整个系统的性能会明显下降。此外,即使在单处理器上,如果内核是抢占式的,也可能出现不同进
大师们的精典话摘 1. 专访Linus Torvalds:微内核仍是一个技术失败(2011年) http://www.zdnet.com.cn/server/2011/0520/2036895.shtml LinuxFR:你对微内核的看法是什么?你仍然认为它是一个技术失败吗?Linus Torvalds:是的,我仍然认为这些想法只是听起来不错,纸上谈兵罢了,在现实中必将会失败,因为现实中真正
linux内存pae http://en.wikipedia.org/wiki/X86-64物理地址扩展(Physical Address Extension),又释实体位置延伸,是x86处理器的一个功能,让中央处理器在32位操作系统下存取超过4GB的实体内存。PAE为IntelPentium Pro及以上级别的CPU(包括除了总线频率为400MHz的这个版本的奔腾M之外的所有新型号奔腾系列处理器)
linux虚拟内存空间布局 Linux系统虚拟内存空间一般布局示意图 说明: 1)线性地址空间:是指Linux系统中从0x00000000到0xFFFFFFFF整个4GB虚拟存储空间。 2)内核空间:内核空间表示运行在处理器最高级别的超级用户模式(supervisormode)下的代码或数据,内核空间占用从0xC0000000到0xFFFFFFFF的1GB线性地址空间,内核线性
Linux内核映像中的内核配置信息生成与获取详解 在三年前做android手机内核移植的时候,如果需要自己重新编译内核的话,内核配置都是从手机中运行的内核中获取的,这个方法也是从XDA学来的:/proc/config.gz。最近重游LDD3的时候,在调试那章中又认真看了一下:(摘自《LDD3》第四章)CONFIG_IKCONFIGCONFIG_IKCONFIG_PROC这些选项出现在“General setup(一般设置)”菜
lvm管理 lvm的管理一直以来对lvm卷的扩大与缩小思路不清晰,记录如下:建立一个lv卷思路1、将磁盘进行分区、文件系统格式为8e2、使用pvcreate 将硬盘进行设置成pv卷3、将一个或是多个pv卷设置成一个vg卷4、在vg卷的基础上,划分一个或是多个lv卷5、将一个或是多个lv卷进行格式化6、将一个或是多个lv卷进行挂载lv卷的空间太大了,要进行缩小1、卸载
云计算 IaaS(Infrastructure as a Service),指基础设施即服务,消费者通过Internet可以从完善的计算机基础设施获得服务。基于Internet的服务(如存储和数据库)是IaaS的一部分。Internet上其他类型的服务包括平台即服务(Platform as a Service,PaaS)和软件即服务(Software as a Service,SaaS)。PaaS提供了用
国内的各种IaaS 云计算(Cloud Computering)是当下非常热的话题,经过很多年的发展,国外以Google、Amazon为代表,技术已经相当成熟,虽然说也还是有Amazon S3当机的故障发生,但给人的印象多还是可靠,规模化降低成本。 但凡热的概念,国内都要炒,不管技术到没到位,不炒作一下都不行,于是一时间这个云,那个云,不管做啥业务的,觉得和云沾上变就可以变得很高端一般,于是乎,网盘们也都纷纷变
kernel 网桥代码分析 作者:林海枫本文地址:http://blog.csdn.net/linyt/archive/2010/01/14/5191512.aspx注:本文由作者所拥用,欢迎转载,但请全文转载并注明作者,请勿用于 任何商途。本文分析的kernel版本为:2.6.24.4,网桥代码目录为:linux-2.6.24.4/net/bridge。本文着重分析网桥的基本功能,关于STP的功能,我想
linux桥接 什么是桥接?简单来说,桥接就是把一台机器上的若干个网络接口“连接”起来。其结果是,其中一个网口收到的报文会被复制给其他网口并发送出去。以使得网口之间的报文能够互相转发。交换机就是这样一个设备,它有若干个网口,并且这些网口是桥接起来的。于是,与交换机相连的若干主机就能够通过交换机的报文转发而互相通信。如下图:主机A发送的报文被送到交换机S1的eth0口,由于eth0与eth1、e
Quantum(Grizzly) quantum agent(OVS)工作流 本博客欢迎转发,但请保留原作者信息新浪微博:@孔令贤HW;博客地址:http://blog.csdn.net/lynn_kong内容系本人学习、研究和总结,如有雷同,实属荣幸! 继上一篇《Quantum(Grizzly) L3 agent工作流》,本篇介绍采用OVS(gre)实现的quantum agent工作流,系统环境参见上一篇博客。因为agent主要的工作是操作v
Open vSwitch使用笔记 1. OpenvSwitch介绍 1.1虚拟化网络架构图 1.2 OpenvSwitch功能介绍 2. 安装,启动,关闭 2.1 源码安装 2.2 apt安装 2.3 启动脚本 2.4 关闭脚本 2.5 virsh启动 3. 配置,使用 3.1流规则 3.2VLAN 3.3 sflow 3.4接入物理机 4. 遇到的问题
公有云不安全而私有云安全是云计算安全的两大谎言 HyperStratus咨询公司首席执行官伯纳德.戈尔登(Bernard Golden)撰文指出,一个接一个的调查表明,对于公有云计算,安全是潜在用户最担心的问题。例如,2010年4月的一项调查指出,45%的以上的受访者认为云计算带来的风险超过了收益。CA和Ponemon Institute进行的一项调查也发现了用户有此类担心。但是,他们还发现,尽管用户存在这种疑问,云应用还是在部署着。类似调查和
XenServer中VM的存储格式对空间以及性能的影响 在XenServer中,基本的存储库(SR)、物理块设备、虚拟磁盘映像、虚拟块设备之间的关系如下图:其中,PBD为物理存储设备的抽象,基本无法改变,SR为XenServer对物理存储设备的抽象,起到组织管理的作用,SR的类型对虚机VDI的格式以及性能有一定的影响,但是SR的类型受限制于物理存储的形式,所以,暂停也跳过,VBD与VDI对应,而最终VM拿到的虚拟块设备VBD,则为VDI的虚拟,所以
全虚拟化HVM和半虚拟化PV虚拟平台通信机制分析 一.半虚拟化PV虚拟平台通信机制由于基本上所有的设备驱动都假设自己可以直接访问硬件,同时对硬件拥有完全控制权。但在这虚拟机系统中是不可能的,一个设备通常要为多个Guest Domain服务。为了确保管理性和安全访问,Xen的设备虚拟化采用了分离式设备驱动模型。当Guest Domain是一个准虚拟化的虚拟机时,虚拟机的内核是被修改过的,它知道自己不是运行在真实的硬件上。其设备是由Xen虚拟
半虚拟化和全虚拟化的区别 全虚拟化(Full Virtulization)简介:主要是在客户操作系统和硬件之间捕捉和处理那些对虚拟化敏感的特权指令,使客户操作系统无需修改就能运行,速度会根据不同的实现而不同,但大致能满足用户的需求。这种方式是业界现今最成熟和最常见的,而且属于 Hosted 模式和 Hypervisor 模式的都有,知名的产品有IBM CP/CMS,VirtualBox,KVM,VMware Works
Citrix XenServer网络性能优化 最近把部分Windows Server 2003迁移至XenServer,但是发现一个很严重的问题,就是网络性能十分低下,在网上查了一下资料,终于让网络性能恢复如初。XenServer需要关闭网卡的CheckSum功能:脚本(xen_net.sh)内容如下:echo Setting checksum off on VIFsVIFLIST=`xe vif-list | grep "u
xenserver netback process解析&&调优 原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://taotao1240.blog.51cto.com/731446/774756 在利用xenserver做性能测试的时候发现netback进程占用cpu很高(如下图),google了一下,才发现netback进程对xenserver性能调优有不小的影响。下面是摘录
vxlan总结 VXLAN:是好是坏?在近期的VMworld大会上,由思科与VMware提出的VXLAN(虚拟可扩展LAN )声明在网络工程师中引起了极大反响。它是虚拟环境无用的方法,还是确有其意义?其实,它处于二者中间。 什么是VXLAN? 它是一种在UDP中封装MAC的简单机制,可以创建跨多个物理IP子网的虚拟2层子网。 为什么我们需要这种新技术? 现在不只