在CDH集群安装Flink

版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/scl323/article/details/90238252

在CDH集群安装Flink

1. 下载安装包

查看自己的hadoop版本和scala版本, 这里是hadoop 2.6, scala 2.11
wget https://archive.apache.org/dist/flink/flink-1.7.2/flink-1.7.2-bin-hadoop26-scala_2.11.tgz

2. 解压

tar -zxf flink-1.7.2-bin-hadoop26-scala_2.11.tgz

3. 配置

flink-1.7.2/conf/flink-conf.yaml
选择一个 master节点(JobManager)然后在conf/flink-conf.yaml中设置jobmanager.rpc.address 配置项为该节点的IP 或者主机名。

# 配置主节点主机名
jobmanager.rpc.address: test-hadoop1

# The RPC port where the JobManager is reachable.

jobmanager.rpc.port: 6123

# The heap size for the JobManager JVM

jobmanager.heap.size: 1024m

# The heap size for the TaskManager JVM

taskmanager.heap.size: 5024m

# The number of task slots that each TaskManager offers. Each slot runs one parallel pipeline.
# 你希望每台机器能并行运行多少个slot, 机器上一个核可以运行一个slot
taskmanager.numberOfTaskSlots: 4

# The parallelism used for programs that did not specify and other parallelism.
# 整个集群最大可以的并行度, slave节点数 * 节点CPU核数
parallelism.default: 72

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26

修改 conf/masters 文件

test-hadoop1:8081
  • 1
  • 2

修改 conf/slaves 文件

test-hadoop2
test-hadoop3
test-hadoop4
test-hadoop5
test-hadoop6
test-hadoop7
test-hadoop8
test-hadoop9
test-hadoop10
test-hadoop11
test-hadoop12
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 确保所有节点有有一样的jobmanager.rpc.address 配置。

4. 复制到各个节点

把解压并配置好的文件夹, 复制到各个节点上
scp -r /home/soft/flink/flink-1.7.2 test-hadoop2:/home/soft/flink/
依次复制到各个节点

5. 启动Flink集群

只需要在主节点执行
bin/start-cluster.sh

6. 进入页面

http://test-hadoop1:8081/#/overview
在这里插入图片描述

                                </div>
            <link href="https://csdnimg.cn/release/phoenix/mdeditor/markdown_views-e44c3c0e64.css" rel="stylesheet">
                </div>
</article>
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
您好!要在CDH(Cloudera Distribution for Hadoop)上安装Flink,您可以按照以下步骤进行操作: 1. 确保您已经正确地安装CDH集群,包括Hadoop、YARN和HDFS等组件,并且集群正常运行。 2. 下载Flink的二进制发行版。您可以从Flink的官方网站(https://flink.apache.org/downloads.html)上获取最新版本的二进制压缩包。 3. 解压缩Flink二进制压缩包,并将解压后的文件夹移动到CDH集群的某个节点上。 4. 配置Flink的环境变量。编辑Flink文件夹中的`conf/flink-conf.yaml`文件,根据您的CDH集群配置修改以下参数: - `jobmanager.rpc.address`:设置为CDH集群Flink JobManager所在节点的主机名或IP地址。 - `fs.hdfs.hadoopconf`:设置为CDH集群中Hadoop配置文件目录的路径。 5. 配置CDH集群中的Hadoop和YARN相关配置。在CDH集群中的每个节点上,将Flink文件夹中的`conf`文件夹下的`log4j.properties`复制到Hadoop配置目录(默认为`/etc/hadoop/conf/`),并重命名为`flink-log4j.properties`。 6. 启动Flink集群。在CDH集群的某个节点上,使用以下命令启动Flink的JobManager: ``` ./bin/start-cluster.sh ``` 7. 验证Flink集群是否正常运行。您可以在浏览器中打开Flink的Web界面(默认为http://<jobmanager-host>:8081/),查看Flink的状态和运行的作业。 请注意,以上步骤仅适用于CDH集群上的Flink安装。如需更详细的步骤或遇到其他问题,请参考Flink官方文档或CDH相关文档,或随时向我提问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值