1.下载flink源码
git clone https://github.com/apache/flink.git
需要源码来构建Flink。可以[下载发行版源码]({{ site.download_url }}) 或这 [从 git 仓库复制]({{ site.github_url }})。
此外,您需要 Maven 3 和 JDK (Java Development Kit)。
需要使用Java 8及以上JDK版本来构建Flink 。
注意:Maven 3.3.x 可以构建 Flink,但不能屏蔽某些依赖。Maven 3.2.5 可以正常创建库。请使用 Java 8u51 或更高版本来构建单元测试,以避免用PowerMock运行单元测试失败。
所以我这边是使用的Maven 3.2.5
2.构建
构建 Flink 最简单的方法是运行:
-
mvn clean install -DskipTests
这个 Maven (mvn
) 指令是首先删除所有已生成的文件 (clean
) ,然后创建一个新的 Flink 二进制文件 (install
)。
要加快构建速度你可以跳过测试、QA 插件 和 JavaDocs:
mvn clean install -DskipTests -Dfast
默认构建为 Hadoop 2 添加了 Flink 特定的 JAR,以允许 Flink 与 HDFS 和 YARN 一起使用。
haddoop 版本支持
{% info %} 大多数的用户不需要手动执行此操作。 [下载页面]({{ site.download_url }}) 包含了对应常见 Hadoop 版本的二进制包。
Flink 所依赖的 HDFS 和 YARN 都来自于 Apache Hadoop。目前存在许多不同的 Hadoop 版本(包括上游项目和不同的 Hadoop 发行版)。如果使用错误的版本组合,可能会产生异常。
Flink支持2.4.0及以上的hadoop 版本。 你也可以指定构建特定的 Hadoop 版本:
mvn clean install -DskipTests -Dhadoop.version=2.6.1