- 博客(21)
- 资源 (2)
- 收藏
- 关注
原创 VPP LoadBalancer 试用
VPP LoadBalancer 号称是对google maglev的复刻版,所以忍不住要试用一下。在CentOS 7.2上面安装非常快速,因为vpp为centos提供了repo源和打包好的vpp程序。 #添加repo源cat > /etc/yum.repos.d/vpp.repo [fdio-release]name=fd.io release b
2017-01-09 20:43:34 4591 2
原创 一个高速lvs-dr替代系统设计 -- 基于dpdk的高性能负载均衡器
#LVSDR原理LVS-DR不同于普通的haproxy代理机制,它在网络中的作用层级更加底层。haproxy一般代理应用层的应用数据,所有的数据都会通过haproxy收发,导致了haproxy是一个性能瓶颈。而lvs-dr作用在IP和数据链路层,效率更高,并且只代理进入proxy的数据,应用的返回数据由应用服务器直接返回给client。
2016-12-13 15:58:38 4204
原创 Nova和Heat中的servergroup
现在nova可以通过命令创建一个server group,在server group中的vm可以指定一些policy。这些policy包括affinity和anti-affinity。affinity表示尽量把vm都安排到一个host上面,anti-ffinity表示尽量把vm安排到不同的host上面。创建server-group的命令如下:nova server-group-crea
2014-07-21 13:53:38 5131
原创 Heat中的Autoscaling - 使用ceilometer监控cpu使用率
Heat使用两种方式获取vm中的一些资源使用数据,一种是openstack服务ceilometer,另一种是vm中的heat-cfntools工具。本文介绍前一种的使用方法。注意,本例中使用了OS::Heat::AutoScalingGroup类型,这种类型并不支持loadbalancer,如果需要使用loadbalance,请使用AWS::AutoScaling::AutoScalingGr
2014-05-26 11:42:05 2923
原创 OpenStack-Heat中template的formatversion介绍
template中有三个formatversion,第一种是aws的格式,表示这是一个json文件;第二种是heat为了扩展aws并且更好的加入注释,引入的yaml格式文件;第三种是openstack的heat特有的hot格式的头部,也是基于yaml格式的。"AWSTemplateFormatVersion": "2010-09-09", HeatTemplateFormatVersi
2014-05-20 11:28:33 2535
原创 OpenStack-Heat中的Autoscaling - AWS的autoscaling
在Heat中完全使用aws的语法创建一套autoscaling的template。流程:Create LaunchConfig (Create basic instance, send mem status to ALARM) ->Create ASGroup (Define instance num range) ->Create ScaleUpPolicy (+1 in
2014-05-20 10:32:16 2189
原创 OpenStack-Heat中的AWS::WaitCondition的使用
在heat中,一个instance的创建成功信号是在这个instance状态成为active之后发出的,这时候user-data可能还没有执行。但是heat已经认为这个resource创建成功了,开始调度下一个resource的创建。如果我们要建立一个webserver,这个webserver需要在databaseServer执行完user-data之后才开始创建,就需要使用AWS的waitc
2014-05-17 14:19:48 2103
原创 让devstack中的vm访问外网
devstack默认会建立一个Public网络,地址为172.24.4.0/24,但是这个网络并不是运营商分配给我们的网络,所以只能通过nat的方式让devstack建立的虚拟机访问外网。命令如下:iptables -t nat -I POSTROUTING -s 172.24.4.0/24 -j MASQUERADEiptables -I FORWARD -s 172.24.4.0/
2014-05-06 15:47:25 2774
原创 OpenStack-heat笔记之为diskimage-builder编写elements生成一个lamp镜像
建立elements目录mkdir -p elements/lamp/install.d/vim 70-lamp#!/bin/bashset -euxinstall-packages wordpress mariadb-server httpd memcached生成一个带wordpress的镜像export ELEMENTS_PATH=
2014-04-28 16:39:42 2610
原创 使用Diskimage-builder工具生成Heat可用的vm镜像
环境VmwareFedora 19下载代码git clone https://github.com/openstack/diskimage-builder.gitgit clone https://github.com/openstack/tripleo-image-elements.git安装必要的包rpm -Uvh http://dl
2014-04-09 11:46:01 4336
原创 创建文件作为pv
创建空磁盘镜像文件:dd if=/dev/zero of=floppy.img bs=1024 count=1440 关联loop设备:losetup /dev/loop1 floppy.img 挂载loop设备:mount /dev/loop1 /mnt/floppy 上面的关联与挂载可以替换为:mount -o loop floppy.img /
2014-03-03 10:46:20 1191
原创 使用vagrant一键安装rackspace openstack private cloud
向vagrant中添加vagrant box:vagrant box add centos64 http://public.thornelabs.net/centos-6.4-x86_64.boxvagrantfile文件内容如下:1234567891011121314151617181920
2014-03-02 21:43:40 3146
原创 openstack的security group的正确配置
最近发现我们的环境就算配置了security group外界也无法访问vm,但是vm能够访问外网,这个就很诡异了。后来发现应该是配置的问题。修改controller和compute的nova.conf文件,修改或者添加下列内容:firewall_driver = nova.virt.firewall.NoopFirewallDriver security_group_api=neu
2014-03-02 21:15:06 1814
原创 用于devstack的vagrant配置文件
vagrantfile内容如下:123456789101112131415161718192021VAGRANTFILE_API_VERSION = "2"$post_script = sudo yum install -y vim gitsudo groupadd stacksud
2014-03-02 21:13:07 1410
原创 为rdo内核制作drbd的rpm包 -- by Ethan_lynn
最近升级了rdo的内核之后,发现没有相应的drbd的包,只有标准内核的包,所以要在openstack中使用drbd就需要自己生成一个drbd的包。当前内核信息如下:# uname -aLinux packstack 2.6.32-358.123.2.openstack.el6.x86_64 #1 SMP Thu Sep 26 17:14:58 EDT 2013 x86_64 x86
2013-12-04 17:51:45 1072
原创 使用packstack快速安装openstack -- by Ethan_lynn
首先安装rdo的源,并更新内核yum install -y http://rdo.fedorapeople.org/openstack-havana/rdo-release-havana.rpmyum -y updatereboot然后如果不需要特别定制,可以直接使用命令packstack --allinone直接安装如果需要定制,则按照如下步骤
2013-11-29 12:53:06 5655
原创 RDO的openstack中安装savanna 0.3 --by Ethan_lynn
前提:通过packstack --allinone部署好了openstack环境。1. 安装savanna的包# yum install -y openstack-savanna python-django-savanna# rpm -qa |grep savannapython-savannaclient-0.3-1.el6.noarchopenstack-sav
2013-11-25 17:16:56 2202 4
原创 glusterfs中split-brain的重现与修复
假设有两台glusterfs的serverComputeA 10.0.0.2ComputeB 10.0.0.3分别共享本地目录/home/glusterfs/目录作为共享目录,gluster volume挂载在/var/lib/nova/instances/断开ComputeB的网络[ComputeB]#echo "bad" > /home/glusterfs/test
2013-11-22 12:13:35 3452
原创 openstack中使用glusterfs作为nova共享存储
openstack环境:Controller 10.101.0.21ComputeA 10.101.0.30ComputeB 10.101.0.31ComputeC 10.101.0.32ComputeD 10.101.0.33目的:把四台Compute节点作为server和client一体的服务集群,在每个节点都划出一个目录作为共享目
2013-11-22 12:03:24 3682
原创 利用iptables设置tcp的mss值
通常以太网的mtu为1500,所以对于tcp来说,它的mss就是1460(20Bytes的ip头+20bytes的tcp头) 设置mss有两种方法:一种是启用路径发现,自动发现路径上的mtuiptables -A FORWARD -p tcp --tcp-flags SYN,RST SYN -j TCPMSS --clamp-mss-to-pmtu这条规则的目的就是改变TC
2013-08-12 12:22:47 6935
原创 【cinder】从snapshot中创建volume都在同一节点的问题
cinder.conf中有个选项snapshot_same_host默认这个选项为true,即所有从snapshot创建的volume都放在跟snapshot同一个节点。此时并不经过cinder-scheduler的处理,而是直接向当前卷所在主机发送RPC消息。可以在cinder.conf中加入snapshot_same_host=false再从快照创建卷,就会交给cinder
2013-08-01 14:25:54 1183
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人