在用maven进行spark开发时,如果使用离线批处理,一般都有添加spark-core的jar包。
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.4.0</version>
</dependency>
如果使用的是cdh,那么还需要注意cdh的版本。
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.4.0-cdh6.3.2</version>
</dependency>
添加es的jar包
spark对es也支持的比较好,如果需要在spark项目中读取es的数据,则需要添加es的jar包:
<dependency>
<groupId>org.elasticsearch</groupId>
<artifactId>elasticsearch</artifactId>
<version>7.5.0</version>
</dependency>
<dependency>
<groupId>org.elasticsearch</groupId>
<artifactId>elasticsearch-spark-20_2.11</artifactId>
<version>7.5.0</version>
</dependency>
NoClassDefFoundError: org/apache/logging/log4j/util/ReflectionUtil 的解决办法
然而启动项目时就会报错:java.lang.NoClassDefFoundError: org/apache/logging/log4j/util/ReflectionUtil
个人分析:因为jar包冲突。因为是添加了elasticsearch的jar包才出现的问题,所以只需要把es的jar包中相关的jar排除就好了。
解决方案如下:
<dependency>
<groupId>org.elasticsearch</groupId>
<artifactId>elasticsearch</artifactId>
<version>7.5.0</version>
<exclusions>
<exclusion>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-api</artifactId>
</exclusion>
</exclusions>
</dependency>
<dependency>
<groupId>org.elasticsearch</groupId>
<artifactId>elasticsearch-spark-20_2.11</artifactId>
<version>7.5.0</version>
</dependency>