Spark 整合 hive

CDH 版本: cdh6.3.2 

组件版本:

 hadoop 版本: 3.0.0

 spark 版本:2.4.0

 hive 版本 :2.1.1 

使用编码方式进行整合

 首先添加spark-hive 依赖 和hive 依赖

        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-exec</artifactId>
            <version>2.1.1-cdh6.3.2</version>
        </dependency>

    

        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-hive_2.11</artifactId>
            <version>2.4.0-cdh6.3.2</version>
      </dependency>

spark session 配置

def sc: SparkSession = {
    var conf = new SparkConf()
      .set("spark.sql.legacy.allowCreatingManagedTableUsingNonemptyLocation", "true")
      .set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
      .set("spark.sql.warehouse.dir", "your hdfs parth")
      .set("hive.metastore.uris", "your hive metastore path")
    SparkSession.builder()
      .config(conf)
      .enableHiveSupport()
      .getOrCreate()
  }

如果你的cdh 集群中没有将hive-core.xml 和hive-site.xml copy 到spark conf 目录下可以使用该方式进行整合。

使用这种方式整合hive 需要hiveserver2 已经启动 通过hive.metastore.uris 获取hive元数据

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值