大数据环境生态搭建3-Flink安装与配置

一 环境准备 

<本次依赖的环境有JDK 和Hadoop>,可以参考小编前面的两篇博客

CSDN基础环境搭建 →大数据环境生态搭建1-准备阶段_小秃头_的博客-CSDN博客CSDN

hadoop环境搭建大数据环境生态搭建2-Hadoop安装与配置_小秃头_的博客-CSDN博客

二 安装Flink

1)集群规划

主机名角色
hadoop101JobManager
hadoop102TaskManager
hadoop103TaskManager

2)安装包下载

Index of /dist/flink/flink-1.13.0icon-default.png?t=N7T8https://archive.apache.org/dist/flink/flink-1.13.0/

3)将安装包上传到linux系统

4)解压安装包,<并重命名>

tar -zxvf flink-1.13.0-bin-scala_2.12.tgz -C /opt/module/

5)配置环境变量

export FLINK_HOME=/opt/module/flink
export PATH=$PATH:$FLINK_HOME/bin

6)修改flink-conf.yaml配置文件,配置JobManager节点

[root@hadoop101 conf]# vim flink-conf.yaml

7)修改workers文件,配置TaskManager节点

[root@hadoop101 conf]# vim workers

8)将hadoop101上的Flink包分发到hadoop102和hadoop103

scp -r flink-1.13.0/ hadoop102:$PWD
scp -r flink-1.13.0/ hadoop103:$PWD

9)启动集群

[root@hadoop101 flink]# ./bin/start-cluster.sh

10)访问web端页面,默认端口8081

三 flink on yarn

1)需要将hadoop-yarn-api-3.1.3.jar  和 flink-shaded-hadoop-3-3.1.1.7.2.8.0-224-9.0.jar 两个jar包放到flink/lib目录里

[root@hadoop101 flink]# cp /opt/module/hadoop/share/hadoop/yarn/hadoop-yarn-api-3.1.3.jar  /opt/module/flink/lib/

也可以直接下载:https://repo1.maven.org/maven2/commons-cli/commons-cli/1.5.0/commons-cli-1.5.0.jar

https://repository.cloudera.com/artifactory/cloudera-repos/org/apache/flink/flink-shaded-hadoop-3/3.1.1.7.2.8.0-224-9.0/flink-shaded-hadoop-3-3.1.1.7.2.8.0-224-9.0.jar

下载好后,直接放到flink/lib即可

如果是hadoop2.x,还需要将flink-shaded-hadoop-2-uber-2.8.3-10.0.jar也放到flink/lib下

2)在yarn模式下启动flink集群

[root@hadoop01 bin]# ./yarn-session.sh -nm flink-on-yarn

显示如下信息表示启动成功

3)访问web页面 http://hadoop102:42281

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值