spark从mongodb导入数据到hive

本文介绍了如何利用mongo-spark连接器将数据从MongoDB导入到Hive,包括依赖添加、代码示例及数据加载配置文件的格式说明。
摘要由CSDN通过智能技术生成

1、首先添加mongo-spark依赖,官网地址 https://docs.mongodb.com/spark-connector/

       <dependency>
            <groupId>org.mongodb.spark</groupId>
            <artifactId>mongo-spark-connector_2.10</artifactId>
            <version>1.1.0</version>
        </dependency>

2、代码

object Mongo2Hive {

  def MongodbToHive(args: Array[String], sc: SparkContext): Unit = {

    val hiveContext = new HiveContext(sc)

    val Array(schemaFilePath, queryCondition): Array[String] = args

    val schemaFile = sc.textFile(schemaFilePath).collect()

    val Array(schemaStruct, requireFields, tempTableName, sql, mongodbConfig) = schemaFile

    //MongoDB Config
    val json = JSON.parseObject(mongodbConfig)

    //mongodb host
    val hostList 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值