Mesos——Zookeeper+Mesos+Marathon搭建一个弹性高并发CICD集群

如何使用Zookeeper+Mesos+Marathon搭建一个沙箱式集群管理平台
有了Mesos这样的一个集群框架,再集成CICD,可以最大化的实现资源管理、减少时间成本
为什么要把Jenkins 运行到Apache Mesos集群上?
1、把Jenkins运行到Apache Mesos上,或者说利用Apache Mesos想Jenkins提供slave资源,最主要的目的时,利用Mesos的弹性资源分配来提高资源利用率。通过配置Jenkins-on-Mesos插件,Jenkins master可以在作业构建时根据实际需要动态的想Mesos申请slave节点,并在构建完成的一段时间后将节点归还给Mesos
2、同时,Marathon会对发布到它之上的应用程序进行健康检查,从而在应用程序由于某些原因以为崩掉后自动重启该应用。这样,选择利用Marathon管理Jenkins Master保证了该构建体系的全局高可用。而且,Jenkins Master本身也通过Marathon部署运行在Mesos资源池内,进一步实现了资源共享,提高资源利用率
————————————————
解决的问题包括:
1、扩/缩容效率低
当业务节点需要进行扩/缩容时,从机器下线到应用部署、测试,周期较长。当业务遇到突发流量高峰时,增加设备并部署后,可能流量高峰已经过去了。这些本身与设计无关,即使接口应用已经设计成无状态的,但是想要做扩容也是-件非常麻烦的事。work agent主机或者云主机数量固定的情况下,实现弹性拓展,资源最大化,最小数量的agent可应对流量高峰时高并发构建
2、资源闲置率高
我们经常能够看到服务器的资源闲置率非常高,而开发团队、测试团队却经常面临无机器可用的情况。
2、解决传统CI框架中master一直pending阻塞状态
3、Marathon健康检查长应用,保证稳定

Mesos概述

Apache Mesos 是一款基于多资源(内存、CPU、磁盘、端口等)调度的开源集群管理套件,能使容错和分布式系统更加容易使用。其采用了Master/Slave结构来简化设计,将Master做的尽可能轻量级,仅保存了各种计算框架(Framwork)和Mesos Slave的状态信息,这些状态很容易在Mesos出现故障时被重构,所以使用zookeeper解决master单点故障问题。

Mesos工作原理

在这里插入图片描述

Mesos Master充当全局资源调度器角色,采用某种策略算法将某个Save
上的空闲资源分配给某个Famework,而各种Framework则是通过自己的调度器向master注册进行接入,master slave则是收集任务状态和启动各个Framework的Executor。其架构图如下:

基本术语
  • Mesos master: 负责管理各个Framework和Slave,并将Slave 上的资源分配给各个 - - Framework。
  • Mesos Slave:负责管理本节点上的各个Mesos Task,为各个Executor分配资源。
  • Framework:计算框架,如:Hadoop、Spark等,可以通过MesosSchedulerDiver接入Mesos。
  • Executor:执行器,在Mesos Slave上安装,用于启动计算框架中的Task。

Zookeeper概述

zookeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现。是Hadoop的HBASE的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。其中master选举可以说是Zookeeper最典型的应用场景了。生产环境中Zookeeper是以宕机个数过半来让整个集群宕机的,所以maser至少三个节点

Marathon概述

marathon是一个Mesos框架,能够支持运行长服务,比如web应用等。是集群的分布式init.d,能够原样运行Linux二进制发布版本,如Tomcat、Play等,可以集群的多进程管理。也是一种私有Pass,实现服务的发现,为部署提供REST API服务,有授权和SSL、配置约束、通过HAProxy实现服务发现和负载均衡。

配置搭建弹性高并发集群管理平台

环境如下所示:
主机					IP地址					安装软件包

master 192.168.26.150 jdk-8u91-linux-x64.tar.gz/mesos-0.25.0.tar.gz/zookeeper-3.4.10.tar.gz/ marathon-0.15.2.tgz

master1 192.168.26.139 jdk-8u91-linux-x64.tar.gz/ mesos-0.25.0.tar.gz /zookeeper-3.4.10.tar.gz

master2 192.168.26.140 jdk-8u91-linux-x64.tar.gz/mesos-0.25.0.tar.gz/zookeeper-3.4.10.tar.gz

slave 192.168.26.141 jdk-8u91-linux-x64.tar.gz/mesos-0.25.0.tar.gz/docker

slave1 192.168.26.142 jdk-8u91-linux-x64.tar.gz/mesos-0.25.0.tar.gz/docker

步骤如下:
一、安装Mesos

关闭所有主机的防火墙和安全策略

systemctl stop firewalldservice
systemctl disable firewalld.service
setenforce 0

1、配置JAVA环境

tar zxvf jdk-8u91-linux-x64.tar.gz -C /usr/local/
cd /usr/local
mv jdk1.8.0_91/ java

vim /etc/profile
export JAVA_HOME=/usr/local/java
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=$JAVA_HOME/jre/lib/ext:$JAVA_HOME/lib/tools.jar

source /etc/profile

2、安装相关环境

  • 安装开发工具
  • 添加Apache-maven源
  • 安装相关依赖包
  • 配置WANdiscoSvn网络源

(1)安装开发工具

yum groupinstall -y "Development Tools"

(2)添加apache-maven源,为Mesos提供项目管理和构建自动化工具的支持

wget http://repos.fedorapeople.org/repos/dchen/apache-maven/epel-apache-maven.repo -O /etc/yum.repos.d/epel-apache-maven.repo

(3)安装相关依赖包

yum install -y apache-maven python-devel zlib-devel libcurl-devel openssl-devel cyrus-sasl-devel cyrus-sasl-md5 apr-devel apr-util-devel subversion-devel

(4)配置WANdiscoSVN网络源

vim /etc/yum.repos.d/wandisco-svn.repo

[WANdiscoSVN]
name=WANdisco SVN Repo 1.9
enabled=1
baseurl=http://opensource.wandisco.com/centos/7/svn-1.9/RPMS/$basearch/
gpgcheck=1
gpgkey=http://opensource.wandisco.com/RPM-GPG-KEY-WANdisco

3、配置Mesos环境变量

vim /etc/profile
export MESOS_NATIVE_JAVA_LIBRARY=/usr/local/lib/libmesos.so
export MESOS_NATIVE_LIBRARY=/usr/local/lib/libmesos.so

sorce /etc/profile

4、构建Mesos

tar zxvf mesos-0.25.0.tar.gz -C /opt/
mv /opt/mesos-0.25.0/ /root/
cd /root/mesos-0.25.0
mkdir build
cd  build
../configure

make              //等待时间长(在线状态)
make check
make install 
二、配置Mesos-Master(三台master配置一样)

1、规划master主机名
Mesos-master负责维护slave集群的心跳,从slave提取资源信息,配置之前做好相应的解析工作

hostnamectl set-hostname master  #修改相应的主机名
vim /etc/hosts      #修改hosts文件
192.168.26.131 master
192.168.26.139 master1
192.168.26.140 master2
192.168.26.141 slave
192.168.26.142 slave1

ln -sf /root/mesos-0.25.0/build/bin/mesos-master.sh /usr/sbin/mesos-master

2、启动Mesos-Master

mesos-master --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --no-hostname_lookup --ip=0.0.0.0 
参数:
	--work_dir:运行期数据存放路径,包含sandbox、slavemeta等信息
	--log_dir:Mesos日志存放路径
	--[no]hostname_lookup:是否从DNS获取主机名、本例中关闭了此项配置,直接显示IP
	--ip:Mesos 进程绑定的IP

3、配置完成后打开另一个终端使用浏览器访问本地的5050端口
http://l92.168.26.150:5050

三、配置Mesos-Slave(两台slave配置一样)

1、规划slave主机名
Mesos-slave负责接收并执行来自Mesos-master传递的任务以及监控任务状态,收集任务使用系统的情况,配置之前做好解析工作。
hostnamectl set-hostname slave
在这里插入图片描述

vim /etc/hosts      #修改hosts文件
192.168.26.150 master
192.168.26.139 master1
192.168.26.140 master2
192.168.26.141 slave
192.168.26.142 slave1
ln -sf /root/mesos-0.25.0/build/bin/mesos-slave.sh /usr/sbin/mesos-slave #创建链接文件

2.安装并启动docker

yum install docker -y

systemctl start docker.service
systemctl enable docker.service

注意docker服务启动失败,解决方案请参考博客http://blog.51cto.com/11134648/2162785。
3.启动Mesos-slave服务

mesos-slave --containerizers="mesos,docker" --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --master=192.168.26.148:5050 --no-hostname_lookup --ip=0.0.0.0

注意当启动失败时,有可能链接文件没有生效,使用如下命令

cd /root/mesos-0.25.0/build/bin/

./mesos-slave.sh --containerizers="mesos,docker" --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --master=192.168.26.150:5050 --no-hostname_lookup --ip=0.0.0.0

4.查看slave状态
使用浏览器再次对master的5050端口进行访问
http://:192.168.26.150:5050
在这里插入图片描述

四、安装Zookeeper

1.分别在所有的master节点上安装Zookeeper

wget http://mirrors.cnnic.cn/apache/zookeeper/zookeeper-3.4.10/zookeeper-3.4.10.tar.gz
tar zxvf zookeeper-3.4.10.tar.gz -C /home/q/
cd /home/q/zookeeper-3.4.10/
mv conf/zoo_sample.cfg conf/zoo.cfg

2.修改Zookeeper的配置文件
以server.A=B:C:D 格式定义各个节点的相关信息,其中A是一个数字,表示第几号服务器;B是这个服务器的IP地址;C为与集群中的Leader服务器交换信息的端口;D是在leader挂掉时专门进行Leader选举时所用的端口。

cd /home/q/zookeeper-3.4.10/conf

vim zoo.cfg 
   dataDir=/home/q/zookeeper-3.4.10/data   //重新定义Datadir的位置
   dataLogDir=/home/q/zookeeper-3.4.10/datalog
   server.1=192.168.26.150:2888:3888
   server.2=192.168.26.139:2888:3888
   server.3=192.168.26.140:2888:3888

3.修改完的配置文件拷贝给其他master主机

scp zoo.cfg 192.168.26.139:/home/q/zookeeper-3.4.10/conf/
scp zoo.cfg 192.168.26.140:/home/q/zookeeper-3.4.10/conf/

4.在dataDir路径下创建一个myid文件

master主机上(/home/q/zookeeper-3.4.10/)
mkdir data datalog 
echo 1 > data/myid
cat data/myid
master1主机上(/home/q/zookeeper-3.4.10/)
mkdir data datalog 
echo 2 > data/myid
cat data/myid
master2主机上(/home/q/zookeeper-3.4.10/)
mkdir data datalog 
echo 3 > data/myid
cat data/myid

5.分别在各master节点上启动Zookeeper服务

master主机
./bin/zkServer.sh start conf/zoo.cfg 
master1主机
./bin/zkServer.sh start conf/zoo.cfg 
master2主机
./bin/zkServer.sh start conf/zoo.cfg 

6.查看主机状态

./bin/zkServer.sh status

7.分别启动Mesos-master
注意先kill掉之前启动的Mesos-master进程

master主机
mesos-master --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --no-hostname_lookup --ip=0.0.0.0 --zk=zk://192.168.26.150:2181/mesos --quorum=2
master1主机
mesos-master --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --no-hostname_lookup --ip=0.0.0.0 --zk=zk://192.168.26.139:2181/mesos --quorum=2
master2主机
mesos-master --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --no-hostname_lookup --ip=0.0.0.0 --zk=zk://192.168.26.140:2181/mesos --quorum=2

8.启动Mesos-slave
注意先kill掉之前启动的Mesos-master进程

mesos-slave --containerizers="mesos,docker" --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --master=zk://192.168.26.150:2181,192.168.26.139:2181,192.168.26.140:2181/mesos --no-hostname_lookup --ip=0.0.0.0

注意当启动失败时,,有可能链接文件没有生效,使用如下命令

cd /root/mesos-0.25.0/build/bin/

./mesos-slave.sh --containerizers="mesos,docker" --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --master=zk://192.168.26.150:2181,192.168.26.139:2181,192.168.26.140:2181/mesos --no-hostname_lookup --ip=0.0.0.0

9.使用浏览器指定任意Mesos-master地址的5050端口验证
http://192.168.26.140:5050

若指定的是非Leader状态下的Mesos-master地址,页面会自行跳转至处于leader状态的Mesos-master地址。
在这里插入图片描述

五、在master主机上部署运行Marathon

使用Marathon向Mesos发送任务。
1.安装并启动Marathon

wget http://downloads.mesosphere.com/marathon/v0.15.2/marathon-0.15.2.tgz
tar zxvf marathon-0.15.2.tgz -C /home/q/
cd /home/q/marathon-0.15.2

./bin/start --hostname 192.168.26.150 --master zk://192.168.26.150:2181,192.168.26.139:2181,192.168.26.140:2181/mesos --http_address 0.0.0.0   
//将Marathon安装到多Mesos-master环境的master主机上

2.访问Marathon(默认使用8080端口)
http://192.168.26.150:8080/
在这里插入图片描述
3.使用Marathon创建测试任务
(1)在首页点击Create按钮,创建一个测试任务echo “hello world”
在这里插入图片描述
(2)创建成功以后在applications页面可以看到该任务
在这里插入图片描述
Marathon会自动注册到Mesos中,可以在Mesos web的Framework页面中看到注册信息。
在这里插入图片描述
可以在Mesos Web首页看到测试任务在不停的执行中
在这里插入图片描述
(4)在节点slave主机查看任务的相关信息
(5)删除测试任务
在这里插入图片描述
4.使用Marathon API的形式添加新任务
在节点slave中操作

cd /root
vim demo.json
{
"id":"basic-0",
"cmd":"while [true]; do echo 'hello Marathon'; sleep 5; done",
"cpus":0.1,
"mem":10.0,
"instances":1
}
//查看Marathon网站有新添加任务
curl -X POST -H "Content-type:application/json" http://192.168.26.150:8080/v2/apps -d@demo.json

2)在Marathon页面查看
可以在创建的Nginxd任务下看到该任务发送给主机

(3)用命令行方式查看主机下载的docker镜像
docker images

docker ps -a

(4)访问slave主机上运行着的Nginx服务
http://192.168.26.141

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值