./bin/flink run -m yarn-cluster ./test.jar
作业会抛出异常:
Could not identify hostname and port in 'yarn-cluster'
Flink1.8中,FIX了FLINK-11266,将flink的包中对hadoop版本进行了剔除,导致flink中直接缺少hadoop的client相关类,无法解析yarn-cluster参数。
- 执行命令前,导入hadoop的classpath
export HADOOP_CLASSPATH=`hadoop classpath`
2. 在bin/config.sh添加如下语句,导入hadoop的classpath
export HADOOP_CLASSPATH=`hadoop classpath`
下载时,选择对应的hadoop版本, 我自己用的是 flink-shaded-hadoop-2-uber-*.jar。
然后把这个包拷贝到你的flink安装目录下的 lib 目录下面
maven 地址:https://mvnrepository.com/artifact/org.apache.flink/flink-shaded-hadoop-2-uber/2.7.5-8.0
再次执行 就ok.