【云星数据---Apache Flink实战系列(精品版)】:Apache Flink实战基础0015--flink分布式部署0010

183 篇文章 0 订阅
86 篇文章 57 订阅

这里写图片描述

1.通过配置信息找到yarn
    a.Flink-Yarn-Client(FRC)读取YARN_CONF_DIR,HADOOP_CONF_DIR或HADOOP_CONF_PATH环境变量。
    b.如果a读取不到,则flink-yarn-client读取HADOOP_HOME环境变量,如果读到HADOOP_HOME
      若安装的是Hadoop2,设定yarn配置文件在$HADOOP_HOME/etc/hadoop文件夹中
      若安装的是Hadoope,设定yarn配置文件在$HADOOP_HOME/conf文件夹中
    c.如果b失败,则认为yarn没有安装,报错。
2.用yarn准备flink集群所需介质
    a.上传启动flink集群所需介质[step1]FRC会判断所申请的资源是否可用,如果可用则上传运行介质到hdfs,
      包括flink-jar和flink-config等文件。
    b.申请启动ApplicationMaster(AM)[step2,step3,step4]FRC向ResourceManager(RM)申请启动AM.因
      为job介质已经上传到hdfs,所以NodeManager(NM)可以下载介质,准备container.当所有container准备
      完毕后AM启动成功。
3.用yarn启动flink集群
    a.AM在自己内部启动JobManager(JM),AM所管理的container中启动TaskManager(TM).
    b.因为AM和JM在一个container中,所以AM和JM的地址相同,AM就能为TM重新生成一份flink的配置文件,并将它
      上传到hdfs.这样TM就能解析这份配置文件来连接JM.JM和TM连接成功,则flink集群启动成功。
    c.因为AM和JM在一个container中,所以AM能代理处一个JM的管理界面,也就是flink-webUI,这样我们在yarn的
      application中就能查看到flink-webUI来监控flink任务的运行情况。
4.用yarn运行flink程序
      当FRC提交job到AM,job所需的jar会先上传到hdfs,然后由TM下载,解析,执行。运行情况实时反应到JM中。

六、flink部署模式总结

1.flink standalone
    ${FLINK_HOME}/bin/flink run  -m qingcheng11:6123  simple-flink-1.0-SNAPSHOT.jar
2.flink on yarn
    2.1 临时session
        $FLINK_HOME/bin/flink run -m yarn-cluster -yn 3  /bigdata/software/simple-flink.jar
    2.2 长期session
        a.后台启动yarn-session
            $FLINK_HOME/bin/yarn-session.sh -n 3 -s 3 -d
        b.运行jar包
            $FLINK_HOME/bin/flink run /bigdata/software/simple-flink.jar
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值