首先我的环境
hadoop版本: 3.1.x版本
flume版本: 1.9.0
安装启动配置source,channel,sink
启动flume
消费kafkaTopic中的数据,将数据上传到hdfs报错:如下
出现该问题有可能是三种情况:
一、环境变量未配置
在安装了flume的所有机器上,首先都需要配置hadoop环境变量 配置环境变量即可
二、flume安装目录中lib文件夹下的guava-11.0.2.jar的版本不兼容
hadoop3.0.x上hadoop/share/common/hadoop/ 的guava-27.0.jar和flume上的冲突,
选择高版本的,将flume/lib/的guava-11.0.2.jar删掉即可
三、自定义拦截器时pom.xml配置文件导致
切记配置文件一定要 <scope>provided</scope>