spark 3.1.x支持(兼容)hive 1.2.x以及hadoop cdh版本的尝试

89 篇文章 12 订阅

版本

spark 3.1.x
hive 1.2.x
hadoop 2.6.0-cdh-5.13.1

背景

由于好多公司的yarn集群用的是cdh版本的,用Cloudera Manager管理的。而截止到目前为止,spark的最新版本已经到了3.1.1。而对于cdh 2.6.0-5.13.1来说目前支持的hive版本为1.2.1,所以我们做一下集中尝试:

  • 直接修改pom文件中的hive对应的版本
  • 直接修改编译的hadoop版本
  • 在spark运行的时候,动态加载hive对应的版本包

直接修改pom文件中的hive对应的版本

直接在spark的父pom文件增加如下proflie信息:

<profile>
    <id>hive-1.2</id>
    <properties>
      <hive.version>1.2.1</hive.version>
      <!-- Version used for internal directory structure -->
      <hive.version.short>1.2</hive.version.short>
      <hive.storage.version>2.6.0</hive.storage.version>
      <datanucleus-core.version>3.2.10</datanucleus-core.version>
    </properties>
  </profile>

运行

./dev/make-distribution.sh --name 2.6.0-cdh5.13.1  --pip  --tgz  -Phive-1.2 -Phive-thriftserver -Pyarn

报错:

[INFO] --- scala-maven-plugin:4.3.0:compile (scala-compile-first) @ spark-hive_2.12 ---
[INFO] Using incremental compilation using Mixed compile order
[INFO] Compiler bridge file: .sbt/1.0/zinc/org.scala-sbt/org.scala-sbt-compiler-bridge_2.12-1.3.1-bin_2.12.10__52.0-1.3.1_20191012T045515.jar
[INFO] compiler plugin: BasicArtifact(com.github.ghik,silencer-plugin_2.12.10,1.6.0,null)
[INFO] Compiling 29 Scala sources and 2 Java sources to spark/sql/hive/target/scala-2.12/classes ...
[ERROR] [Error] spark/sql/hive/src/main/scala/org/apache/spark/sql/hive/HiveShim.scala:29: object SerializationUtilities is not a msmber of package org.apache.hadoop.hive.ql.exec
[ERROR] [Error] spark/sql/hive/src/main/scala/org/apache/spark/sql/hive/HiveShim.scala:150: not found: value SerializationUtilities
[ERROR] [Error] spark/sql/hive/src/main/scala/org/apache/spark/sql/hive/HiveShim.scala:154: not found: value SerializationUtilities
[ERROR] [Error] spark/sql/hive/src/main/scala/org/apache/spark/sql/hive/hiveUDFs.scala:350: too many arguments (4) for constructor SimpleGenericUDAFParameterInfo: (x$1: Array[org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector], x$2: Boolean, x$3: Boolean)org.apache.hadoop.hive.ql.udf.generic.SimpleGenericUDAFParameterInfo
[ERROR] four errors found

说明hive1.2.1版本的不兼容

直接修改编译的hadoop版本

直接修改hadoop的版本为2.6.0-cdh5.13.1
运行如下命令:

./dev/make-distribution.sh --name 2.6.0-cdh5.13.1  --pip  --tgz  -Phive-1.2 -Phive-thriftserver -Pyarn -Dhadoop.version=2.6.0-cdh5.13.1

报错:

[INFO] --- scala-maven-plugin:4.3.0:compile (scala-compile-first) @ spark-core_2.12 ---
[INFO] Using incremental compilation using Mixed compile order
[INFO] Compiler bridge file: .sbt/1.0/zinc/org.scala-sbt/org.scala-sbt-compiler-bridge_2.12-1.3.1-bin_2.12.10__52.0-1.3.1_20191012T045515.jar
[INFO] compiler plugin: BasicArtifact(com.github.ghik,silencer-plugin_2.12.10,1.6.0,null)
[INFO] Compiling 560 Scala sources and 99 Java sources to spark/core/target/scala-2.12/classes ...
[ERROR] [Error] spark/core/src/main/scala/org/apache/spark/ui/HttpSecurityFilter.scala:107: type mismatch;
 found   : K where type K
 required: String
[ERROR] [Error] spark/core/src/main/scala/org/apache/spark/ui/HttpSecurityFilter.scala:107: value map is not a member of V
[ERROR] [Error] spark/core/src/main/scala/org/apache/spark/ui/HttpSecurityFilter.scala:107: missing argument list for method stripXSS in class XssSafeRequest
Unapplied methods are only converted to functions when a function type is expected.
You can make this conversion explicit by writing `stripXSS _` or `stripXSS(_)` instead of `stripXSS`.
[ERROR] [Error] spark/core/src/main/scala/org/apache/spark/ui/PagedTable.scala:307: value startsWith is not a member of K
[ERROR] [Error] spark/core/src/main/scala/org/apache/spark/util/Utils.scala:580: value toLowerCase is not a member of object org.apache.hadoop.util.StringUtils
[ERROR] 5 errors found

说明对2.6.0-cdh5.13.1版本的不兼容

在spark运行的时候,动态加载hive对应的版本包

根据官网的说明 ,spark从1.4.0 开始就能和不同的hive元数据进行交互,也就是说spark编译的hive内部版本和spark访问hive的元数据是独立的,可以配置不同的hive版本进行对应元数据的访问。具体的配置可以参考以上官网配置。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 编译Spark3.x需要先安装Java、Scala和Maven等工具,然后下载Spark源代码并进行编译。在编译过程中,需要注意Spark3.x与HadoopHive版本兼容的问题。 具体来说,Spark3.x与Hadoop兼容性要求如下: - Spark3.0.x需要Hadoop 2.7及以上版本; - Spark3.1.x需要Hadoop 3.2及以上版本。 而Spark3.x与Hive兼容性要求如下: - Spark3.0.x需要Hive 2.3及以上版本; - Spark3.1.x需要Hive 3.1及以上版本。 如果在编译或运行Spark3.x时遇到版本兼容性问题,可以考虑升级或降级相应的组件版本,或者使用Spark提供的预编译版本。同时,也可以在Spark的配置文件中设置相应的参数来解决兼容性问题。 ### 回答2: Spark是一种快速、通用的大数据处理框架,常用于分散式计算、数据处理和分析。Spark的新版本Spark 3.x具有多种新特性和改进,使其在应对大量数据问题方面更具有竞争力。编译Spark 3.x并使其与HadoopHive版本兼容需要遵循几个步骤。 编译Spark 3.x 编译Spark之前,需要进行以下操作: 1.安装Java 8并设置环境变量 官方推荐Java 8因为Spark3.x不支持Java 9及以上的版本。 2.安装Scala 和 sbt 官方支持Scala 2.12.x版本,并建议使用sbt进行编译。 3.下载Spark 3.x源码 下载后进行解压缩,然后进入Spark源码目录。 完成上述操作后,可以开始编译Spark 3.x: 1.使用命令sbt compile编译源码 2.使用命令sbt package打包成jar文件 3.使用命令sbt assembly打包成带依赖的jar文件 完成上述操作后,就可以将Spark 3.x与HadoopHive版本兼容Spark 3.x与HadoopHive版本兼容问题的解决 1.与Hadoop版本兼容 Spark使用Hadoop作为其分布式存储和计算基础。因此,它需要与Hadoop版本兼容,以确保能够读写Hadoop支持的文件格式。Spark 3.x推荐使用Hadoop 3.2.x版本,因为它提供了更好的性能和兼容性。 2.与Hive版本兼容 Hive是一种在Hadoop上运行的数据仓库软件,它提供了SQL接口来查询和分析数据。Spark 3.x与Hive版本兼容性需要视Hive版本而定。Spark 3.x建议使用Hive 3.x版本,以确保兼容性。 在编译Spark时,可以通过设置HadoopHive版本来确保Spark与它们兼容。在源代码目录中的build/sbt,有一个build.properties文件,可以在其中设置HadoopHive版本号。例如,设置Hadoop版本为3.2.1和Hive版本3.1.2: hadoop.version 3.2.1 hive.version 3.1.2 总之,当编译Spark 3.x时需要设置正确的环境和版本信息,并通过设置版本来保证SparkHadoopHive兼容。这样就可以使用Spark来进行大规模数据处理和分析,以提取出数据中的价值,为企业提供实时分析和决策支持。 ### 回答3: Spark是一个快速而通用的集群计算系统。它可以处理多种数据,并且是可扩展的。Spark有几个版本,包括Spark 3.x、Spark 2.x和Spark 1.x。Spark 3.x是最新的版本,它提供了许多新的功能和增强特性。本文将讨论如何编译Spark 3.x以及Spark 3.x与HadoopHive版本兼容问题的解决。 编译Spark3.x 编译Spark3.x需要一些前期准备工作。首先,需要安装Java开发工具包(JDK)。然后,需要安装Apache Maven和Git。在完成这些准备工作后,可以按照以下步骤编译Spark3.x: 1.从Spark的官方网站上下载Spark源代码。 2.打开终端并切换到Spark源代码目录。 3.运行以下命令: mvn -Psparkr -Pmesos -Pmesos-extras -Pyarn -Phive -Phive-thriftserver -DskipTests clean package 该命令将编译Spark3.x并生成一个可执行文件。 Spark 3.x与Hadoop版本兼容问题的解决 Spark3.x需要一个Hadoop版,以便读写Hadoop分布式文件系统(HDFS)和执行MapReduce任务。以下是Spark3.x与Hadoop版本兼容的问题及其解决方案: 1. Hadoop2.7.x - Spark3.x需要Hadoop2.7.x或更高版本。如果使用的是Hadoop2.6.x,则需要升级到Hadoop2.7.x。 2. Hadoop3.x - Spark3.x支持Hadoop3.x版本,但需要指定Hadoop版本。 在启动Spark应用程序时,可以使用以下命令指定要使用的Hadoop版本: ./bin/spark-shell --conf spark.hadoop.fs.defaultFS=hdfs://namenode:8020 其中,"namenode"是Hadoop的主节点名称,"8020"是Hadoop的主节点端口号。 Spark 3.x与Hive版本兼容问题的解决 Spark3.x还需要一个Hive版本,以便在Spark SQL中查询Hive的数据表。以下是Spark3.x与Hive版本兼容的问题及其解决方案: 1. Hive 1.x和2.x - Spark3.x支持Hive 1.x和2.x版本。在启动Spark应用程序时,可以使用以下命令指定要使用的Hive版本: ./bin/spark-shell --conf spark.sql.hive.metastore.version=2.0.0 其中,"2.0.0"是Hive版本号。 2. Hive 3.x - Spark3.x还不支持Hive 3.x版本。如果需要使用Hive 3.x,可以使用Spark2.x版本。在启动Spark应用程序时,可以使用以下命令指定要使用的Spark版本: ./bin/spark-submit --class com.example.myApp --master yarn --deploy-mode cluster --conf spark.yarn.appMasterEnv.SPARK_HOME=/path/to/spark2x /path/to/myApp.jar 其中,"/path/to/spark2x"是Spark2.x的安装路径。 总之,为了使用Spark3.x,需要确保它与HadoopHive版本兼容。如果需要更改版本或指定版本,请使用相应的命令来启动Spark应用程序。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值