写在前面
Flink1.12.X版本相比较之前版本,在安装上存在差异。
先说一下本次测试环境:
- 操作系统:CentOS 7.4
- CM/CDH版本:CM5.15.2/ CDH5.15.2
我们使用CDH作为hadoop集群的管控平台,而Flink1.9.0不支持CDH版hadoop,需要使用mvn构建1.9.0-cdh的安装包。
1.11.0以后版本,已兼容hadoop2/3各版本,无需再根据hadoop版本自行编译。在官方网站下载对应安装包,运行时指明hadoop版本即可。
除了安装上的差异外,有不少方法被deprecated。这导致1.9.X的程序无法在1.12.X上兼容运行,代码需重构。升级后要有心理准备。
1. 安装JDK
访问官网链接(https://www.oracle.com/java/technologies/javase/javase8-archive-downloads.html)。下载jdk-8u202-linux-x64.rpm。
安装方式:执行rpm -ivh jdk-8u202-linux-x64.rpm。
2. 下载1.12.2稳定版本的Flink安装包
进入Flink官网下载地址(https://flink.apache.org/downloads.html)找到Flink1.12.2
选择Binaries下载编译后安装包flink-1.12.2-bin-scala_2.11.tgz。
这里选择scala2.11的,需要根据flink程序中的sclala对应选择
3. 使用hdfs用户上传安装包到对应目录
上传文件flink-1.12.2-bin-scala_2.11.tgz到/usr/local/flink
cd