Flink1.13.2三种方式安装部署

大家好,我是土哥。

今天,有位Flink初学者问我有没有Flink的安装教程,看到这后,土哥二话不说直接安排上。

以下教程全部使用 Flink1.13.2版本,在普通用户下面部署:

1、Standalone部署

版本要求:

版本节点部署方式
flink-1.13.2-bin-scala_2.11.tgz192.168.244.129standalone

1.1 将软件安装包放入集群中

1.2、软件包解压

tar -zxvf flink-1.13.2-bin-scala_2.11.tgz

1.3、 配置系统环境变量

# 1、进入目录下
cd flink-1.13.2/

# 2、查看完整classpsth,然后复制
pwd 

# 3、编辑系统变量
sudo  vim  /etc/profile

#4、配置变量环境
export FLINK_HOME=/home/liyaozhou/lyz/flink-1.13.2
export PATH=$PATH:$FLINK_HOME/bin

#5 刷新系统变量环境
source /etc/profile

#6 查看是否配置成功
$FLINK_HOME

1.4、配置Flink conf文件

进入到flink-1.13.2/conf目录下

1.4.1 配置flink-conf.yaml

#1. 配置jobmanager rpc 地址
jobmanager.rpc.address: 192.168.244.129

#2. 修改taskmanager内存大小,可改可不改
taskmanager.memory.process.size: 2048m

#3. 修改一个taskmanager中对于的taskslot个数,可改可不改
taskmanager.numberOfTaskSlots: 4

#修改并行度,可改可不改
parallelism.default: 4

1.4.2 配置master

#修改主节点ip地址
192.168.244.129:8081

1.4.3 配置work

#修改从节点ip,因为是standalone,所有主从一样
192.168.244.129

1.4.4 配置zoo

# 新建snapshot存放的目录,在flink-1.13.2目录下建
mkdir tmp
cd tmp
mkdir zookeeper

#修改conf下zoo.cfg配置
vim zoo.cfg

#snapshot存放的目录
dataDir=/home/liyaozhou/lyz/flink-1.13.2/tmp/zookeeper

#配置zookeeper 地址
server.1=192.168.244.129:2888:3888

1.5、启动Flink 集群

进入flink-1.13.2/bin目录下

./start-cluster.sh

2、Standalone-HA集群部署

集群部署两节点

版本主节点从节点部署方式
flink-1.13.2-bin-scala_2.11.tgz192.168.244.129192.168.244.130standalone-HA
hadoop 2.6.4192.168.244.129192.168.244.130Distributed
zookeeper3.4.14192.168.244.129192.168.244.130Distributed

前提是zookeeper 和 hadoop 集群全部配置好

2.1、 将软件安装包放入集群中

2.2、软件包解压

tar -zxvf flink-1.13.2-bin-scala_2.11.tgz

2.3、 配置系统环境变量

# 1、进入目录下
cd flink-1.13.2/

# 2、查看完整classpsth,然后复制
pwd 

# 3、编辑系统变量
sudo  vim  /etc/profile

#4、配置变量环境
export FLINK_HOME=/home/liyaozhou/lyz/flink-1.13.2
export PATH=$PATH:$FLINK_HOME/bin

#5、添加hadoop_conf classpath
export HADOOP_CONF_DIR=/home/liyaozhou/lyz/hadoop-2.6.4/etc/hadoop

#6 刷新系统变量环境
source /etc/profile

#7 查看是否配置成功
$FLINK_HOME

2.4、配置Flink conf文件

进入到flink-1.13.2/conf目录下

2.4.1 配置flink-conf.yaml

#1. 配置jobmanager rpc 地址
jobmanager.rpc.address: 192.168.244.129

#2. 修改taskmanager内存大小,可改可不改
taskmanager.memory.process.size: 2048m

#3. 修改一个taskmanager中对于的taskslot个数,可改可不改
taskmanager.numberOfTaskSlots: 4

#4. 修改并行度,可改可不改
parallelism.default: 4

#5. 配置状态后端存储方式
state.backend:filesystem

#6. 配置启用检查点,可以将快照保存到HDFS
state.backend.fs.checkpointdir: hdfs://192.168.244.129:9000/flink-checkpoints
#7. 配置保存点,可以将快照保存到HDFS
state.savepoints.dir: hdfs://192.168.244.129:9000/flink-savepoints

#8. 使用zookeeper搭建高可用
high-availability: zookeeper

#9. 配置ZK集群地址
high-availability.zookeeper.quorum: 192.168.244.129:2181

#10. 存储JobManager的元数据到HDFS
high-availability.storageDir: hdfs://192.168.244.129:9000/flink/ha/

#11. 配置zookeeper client默认是 open,如果 zookeeper security 启用了更改成 creator
high-availability.zookeeper.client.acl: open

2.4.2 配置master

#修改主节点ip地址
192.168.244.129:8081

2.4.3 配置work

#修改从节点ip,因为是standalone-ha,改另一个节点
192.168.244.130

2.4.4 配置zoo

# 新建snapshot存放的目录,在flink-1.13.2目录下建
mkdir tmp
cd tmp
mkdir zookeeper

#修改conf下zoo.cfg配置
vim zoo.cfg

#snapshot存放的目录
dataDir=/home/liyaozhou/lyz/flink-1.13.2/tmp/zookeeper

#配置zookeeper 地址
server.1=192.168.244.129:2888:3888

2.5、下载hadoop依赖包

下载地址:https://flink.apache.org/downloads.html#additional-components

将包复制到flink-1.13.2/lib目录下

2.6、 文件传输

将主节点flink包复制到从节点
scp -r flink-1.13.2 192.168.244.130:/home/liyaozhou/lyz/

修改从节点 flink-conf.yaml rpc 的ip地址

2.7、启动Flink 集群

进入flink-1.13.2/bin目录下

./start-cluster.sh

可以在登录界面看到,TaskManager的地址为192.168.244.130

3、Flink On Yarn集群部署

集群部署两节点

版本主节点从节点部署方式
flink-1.13.2-bin-scala_2.11.tgz192.168.244.129192.168.244.130yarn
hadoop 2.6.4192.168.244.129192.168.244.130Distributed
zookeeper3.4.14192.168.244.129192.168.244.130Distributed

前提是zookeeper 和 hadoop 集群全部配置好

3.1 修改Hadoop集群的yarn-site.xml文件

YARN模式下的HA需要注意一点,官方给出建议,必须要增加以下两项配置:
YARN配置,修改yarn-site.xml

<!-- master(JobManager)失败重启的最大尝试次数-->
<property>
  <name>yarn.resourcemanager.am.max-attempts</name>
  <value>4</value>
  <description>
    The maximum number of application master execution attempts.
  </description>
</property>

<!-- 关闭yarn内存检查 -->
<!-- 是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认为 true -->
<!-- 因为对于 flink 使用 yarn 模式下,很容易内存超标,这个时候 yarn 会自动杀掉 job,因此需要关掉-->

<property>
   <name>yarn.nodemanager.pmem-check-enabled</name>
   <value>false</value>
</property>

<property>
   <name>yarn.nodemanager.vmem-check-enabled</name>
   <value>false</value>
</property>

3.2 修改flink conf配置

在flink-conf.yaml中添加如下两项:


#用户提交作业失败时,重新执行次数
yarn.application-attempts: 4

#设置Task在所有节点平均分配
cluster.evenly-spread-out-slots: true

3.3 启动测试(Session模式)

3.3.1 启动 Flink 会话(在192.168.244.129上测试)

# 主节点中执行
bin/yarn-session.sh -d -jm 1024 -tm 1024 -s 1

# -tm 表示每个 TaskManager 的内存大小
# -s 表示每个 TaskManager 的 slots 数量
# -d 表示以后台程序方式运行

3.3.2 登录yarn集群页面查看

登录网址:192.168.244.129:8088/cluster

3.3.3 在yarn上提交任务 通过session模式

注意:此时提交的任务都通过该会话(Session)执行,不会再申请 yarn 资源

(1)创建一个wordcount.txt文本,随便早一些数据,然后放到flink-1.13.2下面,然后将该文件传到hdfs中

hadoop  fs  -copyFromLocal  wordcount.txt  /

(2)提交任务

# 192.168.244.129 中执行即可
bin/flink run examples/batch/WordCount.jar --input hdfs://192.168.244.129:9000/wordcount.txt

3.3.3 查看 Hadoop 的 ApplicationManager 的 WEB-UI 页面

3.3.4 关闭Session模式

yarn application -kill application_1631862788541_0001

3.4 启动测试(Per-job模式)在这里插入图片描述

3.4.1 直接提交 Job

bin/flink run \
-t yarn-per-job   \
--detached  examples/batch/WordCount.jar  \
--input hdfs://192.168.244.129:9000/wordcount.txt

土哥的升级服务

如果你因为找工作而烦恼,不会做简历,不会备战复习,不会面试技巧,不会 HR 面,不会谈薪,不用怕,有土哥。

土哥社招参加 28 场面试,100% 通过率,拿到全部 offer!
http://mp.weixin.qq.com/s?__biz=Mzg5NDY3NzIwMA==&mid=2247511408&idx=1&sn=beb292ab97ada3ee486511bfe503117d&chksm=c01914cff76e9dd90fd81857805a57aadcf4fa0a3ce731e5939d8651ed9bac561dba6bb7e03a&scene=21#wechat_redirect

土哥这半年的悲惨人生,经历过被鸽 offer,最终触底反弹~
http://mp.weixin.qq.com/s?__biz=Mzg5NDY3NzIwMA==&mid=2247510455&idx=1&sn=9cccfbebca3d2ee9d72538d73dd6fe74&chksm=c0191008f76e991e1760857f7c8a75deb1e0231ce8ba189eaf280c84e8a5e65f7f0197988ff1&scene=21#wechat_redirect

可以找土哥修改简历,1 对 1 辅导项目、面试技巧,HR 面以及谈薪等,同时发你总结的最新面经试题(有偿哈),具体私信土哥(V:youzhiqiangshou_02)。备注:简历修改+面试辅导

毕竟免费的东西,不仅你不会上心,土哥也没有多大精力认真去修改和辅导。

当然,想进群的也可以关住wx公众号【3分钟秒懂大数据】进大数据交流群~

  • 42
    点赞
  • 93
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 13
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

3分钟秒懂大数据

你的打赏就是对我最大的鼓励

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值