IntelliJ IDEA编写maven搭建的spark程序的详细步骤在上篇文章中已经介绍了,感兴趣的可以去看一下:Intellij IDEA编写Spark应用程序超详细步骤(IDEA+Maven+Scala)
搭建的步骤是一样的,主要是pom文件和代码的不同。
1.项目结构

2.pom文件
<properties>
<spark.version>2.1.0</spark.version>
<scala.version>2.11</scala.version>
<hbase.version>2.0.2</hbase.version>
<hadoop.version>3.1.1</hadoop.version>
</properties>
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_${
scala.version}</artifactId>
<version>${
spark.version}</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_${
scala.version}</artifactId>
<version>${
spark.version}</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_${
scala.version}</artifa
这篇博客介绍了如何在IntelliJ IDEA中使用Maven搭建Spark项目,读取HBase数据。内容包括项目结构、pom.xml配置以及解决不添加特定配置时出现的错误问题。
最低0.47元/天 解锁文章
3569

被折叠的 条评论
为什么被折叠?



