【Flink】【第二章 安装部署】Flink集群安装部署

1.安装

解压缩 flink-1.10.1-bin-scala_2.12.tgz,进入conf目录中。

1)修改 flink/conf/flink-conf.yaml 文件:

jobmanager.rpc.address: hadoop102

2)修改 /conf/slaves文件:

hadoop102
hadoop103
hadoop104

3)分发给另外两台机子:

[atguigu@hadoop102 module]$ xsync flink/

2.flink 目录结构

在这里插入图片描述
1.Bin目录
存放脚本,包括flink集群的启停脚本、flink提交job脚本

2.lib目录
存放flink 依赖的jar包,如果要导入外部依赖,需要放进这个目录

3.conf
flink配置文件目录
在这里插入图片描述

  1. flink有两个日志打印框架:log4j 和logback
  2. flink-conf.yaml文件是flink主要的配置文件
  3. slaves文件:从节点,也就是taskmanager是哪些节点

4.opt
flink模块

5.plugins
flink的插件

3.flink/conf/flink-conf.yaml 配置文件

1.Jobmanager的相关配置

(1)JobManager内部通信rpc 的ip:port

  • jobmanager.rpc.address: hadoop102
  • jobmanager.rpc.port: 6123

(2)堆内存

  • jobmanager.heap.size: 1024m

2.Taskmanager的相关配置

(1) JVM内存

  • taskmanager.memory.process.size: 1728m
    #包括堆内和堆外内存;
    #flink是有状态流式计算,状态存储在堆外内存;
    #堆内存存放代码中创建的对象,Taskmanager默认jvm堆内存512M

(2)可用slot个数

  • taskmanager.numberOfTaskSlots: 1
    #每一个TaskManager提供的task slots个数,每一个task需要一个slot执行,#slot本质是内存

(2)默认并行度

  • parallelism.default: 1
    #整个job,默认共享组的并行度,配置文件中优先级是最低的

3.Jobmanager高可用配置

在这里插入图片描述

  • Jobmanager的高可用配置
  • flink中 jobmanager的高可用依赖于zookeeper

4. 容错和检查点

在这里插入图片描述

  • 检查点就是历史状态存储,挂掉的程序能够按照保存的状态继续执行;
  • 状态后端就是存储状态数据的地方,flink支持的存储位置有jobmanager(还是内存,生产环境中不用)、filesystem(可以是HDFS)、rocksdb(key-value文件系统,依赖于本地文件,类似于HBase中的HFile)

5.Web访问端口:8081

在这里插入图片描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值