一:准备工作:
1、下载flink

建议选择老一两个的版本,对应的版本,我选择的是:

2、scala选择对应的版本,并安装好,这里可以我的博文:
spark集群的安装配置_古柯(●—●)的博客-CSDN博客_spark集群安装
3、下载与hadoopde 集成包

这里注意选择自己对应的hadoop版本
并确保hadoop集群可以使用。按爪个Hadoop的博文:
本文档详细介绍了如何在Linux环境下搭建Flink standalone集群,包括下载Flink、选择匹配的Scala版本、集成Hadoop、配置集群参数以及启动检查等步骤。
一:准备工作:
1、下载flink

建议选择老一两个的版本,对应的版本,我选择的是:

2、scala选择对应的版本,并安装好,这里可以我的博文:
spark集群的安装配置_古柯(●—●)的博客-CSDN博客_spark集群安装
3、下载与hadoopde 集成包

这里注意选择自己对应的hadoop版本
并确保hadoop集群可以使用。按爪个Hadoop的博文:
8129
326
1011

被折叠的 条评论
为什么被折叠?