Flink安装部署

一、standalone模式
解压缩flink-1.1.0.1-bin-scala_2.12.tgz,进入conf目录。
1)修改conf/flink-conf.yaml 文件
通用配置:
jobmanager.rpc.address:作业管理远程过程调用地址,同时也是默认的jobmanager节点
job.manager.rpc.address
jobmanager.heap.size: JVM大小
taskmanager.memory.process.size: taskmanager的总内存(包含jvm和堆外内存)
taskmanager.numberOfTaskSlots: 一个taskmanager有多少个槽位,(一个任务经理 同时可以并行处理的task个数,或者说工位个数)
parallelism.default: 集群任务的默认并行度

HA配置:

fault tolerance and checkpoint 配置:

Rest & webfrontend 配置:
rest.port: 8081 apache flink dashboard 页面端口

Advanced配置:

  1. conf/slaves
    仅添加slave节点
    3)分发安装包到其他节点
    4)启动
    ./bin/start-cluster.sh
    在这里插入图片描述

5)提交任务
注:flink program内的每一个语句都可以设置setParallelism(),比如,wordCount代码内的内一个语句后添加.setParallelism(2);

方式一:

  • 将jar包提交到web
    在这里插入图片描述
  • 指定入口类、参数、并行度(执行时并行度以更细粒度为准,代码级,作业级、集群级别)等
    在这里插入图片描述

slot 和 task并行度:如果使用默认的slot为1,但是提交的job中,存在同个阶段的task并行度大于1,作业将不能运行下去,会处于等待状态。需要提高slot,或者降低并行度。
在这里插入图片描述

方式二:控制台提交job

./bin/flink run -c com.xxx.StreamWordCount -p 3 …/Flink_wordcount.jar --host localhost -port 7777

运行的作业:./bin/flink list
取消某个作业: ./bin/flink cancel [jobID]

二、Yarn模式
要求hadoop版本2.2以上,且有hdfs。
flink on yarn
将flink-shaded-hadoop-2-uber-2.7.5.jar放到 flink 的conf/下。
1)Session-cluster模式
在这里插入图片描述
适合规模小、执行时间短作业,fifo。
启动:
在这里插入图片描述
提交job,同standalone
yarn job页面上查看application
yarn application kill 取消任务

2)Per-job-cluster模式:
一个job对应一个flink集群,单独占用资源,适合规模大、长时间运行。
在这里插入图片描述

启动方式:
1)启动hadoop集群
2)不起的yarn-session,直接执行job
./flink run -m yarn-cluster -c …StreamWordCount Flink-wordcount-xxx.jar --host --port

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值