Spark在连接mongodb时,指定多个collection

在我们使用spark导入mongodb数据时, 如果只连接一个collection会这样配置,其中igomoMemberInfo_Spark_input是我要连接的collection

        SparkSession.Builder builder =SparkSession.builder().master("local[*]").appName("SparkCalculateRecommend").
                config("spark.mongodb.input.uri", "mongodb://xm:xm123@192.168.31.203:27018/sns.igomoMemberInfo_Spark_input")
                .config("spark.mongodb.output.uri", "mongodb://xm:xm123@192.168.31.203:27018/sns.igomoMemberInfo_Spark_output")
                .config("spark.executor.memory", "512mb")

                .config("es.nodes", "192.168.53.92")
                .config("es.port", "9200")
                .config("es.nodes.wan.only", "true");

        SparkSession spark = builder.getOrCreate();

        JavaSparkContext jsc = new JavaSparkContext(spark.sparkContext());
        //使用Spark连接器载入sparkContext,获取RDD对象
        JavaMongoRDD<Document> allRdd = MongoSpark.load(jsc);

以上地址均为本人测试环境地址,因为没有商用价值 这里不做保护处理了。

如果想连接多个collection,需要贴下如下代码,其中challengeInfo是我要连接的collection

        Map<String, String> readOverrides = new HashMap<String, String>();
        readOverrides.put("collection", "challengeInfo");
        readOverrides.put("readPreference.name", "secondaryPreferred");
        ReadConfig readConfig = ReadConfig.create(jsc).withOptions(readOverrides);
        JavaMongoRDD<Document> secAllRdd = MongoSpark.load(jsc,readConfig);

 

如果想连接更多  ,只需要把上面这段代码复制多份,就可以导入到spark中进行计算了。

 

评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值