主要原因在于flink自1.8之后不再提供对应的hadoop编译版本,需要用户自己重新编译或者提供一个flink和hadoop连接器。
这里提供的是flink-shaded-hadoop-2-uber-2.7.5-9.0.jar,可以到maven中央仓库下载。将该jar拷贝到flink目录的lib下,同步到每一台flink机器即可。然后重启flink。
进程查看
主要原因在于flink自1.8之后不再提供对应的hadoop编译版本,需要用户自己重新编译或者提供一个flink和hadoop连接器。
这里提供的是flink-shaded-hadoop-2-uber-2.7.5-9.0.jar,可以到maven中央仓库下载。将该jar拷贝到flink目录的lib下,同步到每一台flink机器即可。然后重启flink。
进程查看