Flink HA的环境搭建

一、前期准备

1.1下载

点击下面的网址进行下载:

Apache Flink: Downloads

注:新版本需要自己下载相应的shaded打包。如:flink-shaded-hadoop2-uber-1.3.3.jar

测试用,我使用的是1.3.3,大家可以使用高一点的版本。

1.2环境准备

1.2.1安装部署了Hadoop HA和zookeeper;

没有的可以参考:

Hadoop HA环境部署_一个人的牛牛的博客-CSDN博客

zookeeper单机和集群(全分布)的安装过程_一个人的牛牛的博客-CSDN博客

1.2.2安装jdk1.8以上;

没有的可以参考:

Linux系统CentOS7安装jdk_一个人的牛牛的博客-CSDN博客

1.2.3集群配置了免密登录;

没有的可以参考:

Linux配置免密登录单机和全分布_一个人的牛牛的博客-CSDN博客

1.2.4做了ip地址映射

1.3机器准备

主节点从节点
hadoop01hadoop02
hadoop02hadoop03

二、安装部署

2.1上传安装包

2.2解压

tar -zvxf flink-1.3.3-bin-hadoop27-scala_2.11.tgz /training/

2.3配置环境变量

vi ~/.bash_profile

添加以下内容并改成自己的路径

#flink
export FLINK_HOME=/training/flink-1.3.3
export PATH=$PATH:$FLINK_HOME/bin
# 配置Hadoop配置文件所在目录
export HADOOP_CONF_DIR=/training/hadoop-2.7.3/etc/hadoop

2.4环境变量生效

source ~/.bash_profile

2.5修改flink-conf.yaml

vi flink-conf.yaml

修改/添加以下内容并改成自己的主机名称

jobmanager.rpc.address: hadoop01


high-availability: zookeeper
# HAhadoop01为hadoop HA的名称
high-availability.storageDir: hdfs://HAhadoop01/ha/
high-availability.zookeeper.quorum: hadoop01:2181,hadoop02:2181,hadoop03:2181


//用户提交作业失败时,重新执行次数
yarn.application-attempts: 4

2.6修改slaves

 vi slaves

hadoop02
hadoop03

2.7修改zoo.cfg

vi zoo.cfg

添加

server.1=hadoop01:2888:3888
server.2=hadoop02:2888:3888
server.3=hadoop03:2888:3888

2.8 拷贝flink

scp -r /training/flink-1.3.3 root@hadoop02:/training/
scp -r /training/flink-1.3.3 root@hadoop03:/training/

三、验证

3.1启动

start-cluster.sh

3.2jps查看进程

xcall.sh是我写的群起脚本

jps、kafka、zookeeper群起脚本和rsync文件分发脚本(超详细)_一个人的牛牛的博客-CSDN博客

3.3浏览器访问

http://hadoop01:8081

成功!!!

参考于:

 Flink三种安装部署方式(HA)_小学僧丶Monk的博客-CSDN博客_flink部署模式

若兰幽竹的博客_CSDN博客-Kettle,Spark,Hadoop领域博主

  • 4
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值