1、首先添加mongo-spark依赖,官网地址 https://docs.mongodb.com/spark-connector/
<dependency>
<groupId>org.mongodb.spark</groupId>
<artifactId>mongo-spark-connector_2.10</artifactId>
<version>1.1.0</version>
</dependency>
2、代码
object Mongo2Hive {
def MongodbToHive(args: Array[String], sc: SparkContext): Unit = {
val hiveContext = new HiveContext(sc)
val Array(schemaFilePath, queryCondition): Array[String] = args
val schemaFile = sc.textFile(schemaFilePath).collect()
val Array(schemaStruct, requireFields, tempTableName, sql, mongodbConfig) = schemaFile
//MongoDB Config
val json = JSON.parseObject(mongodbConfig)
//mongodb host
val hostList

本文介绍了如何利用mongo-spark连接器将数据从MongoDB导入到Hive,包括依赖添加、代码示例及数据加载配置文件的格式说明。
最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



