【SparkAPI JAVA版】JavaPairRDD——context、count (十)

JavaPairRDD的context方法讲解
函数原型
// java
public static SparkContext context()
// scala
def context: SparkContext
说明

可以看得出来,这是一个静态方法,返回一个SparkContext。关于SparkContext是很重要的,想了解更多的可以看这篇文章
spark[源码]-sparkContext详解[一]

JavaPairRDD的count方法讲解
函数原型
// java
public static long count()
// scala
def count(): Long
说明

返回RDD中的元素个数

public class Count {
    public static void main(String[] args) {
        System.setProperty("hadoop.home.dir", "E:\\hadoop-2.7.1");
        SparkConf sparkConf = new SparkConf().setMaster("local").setAppName("Spark_DEMO");
        JavaSparkContext sc = new JavaSparkContext(sparkConf);
        
        JavaPairRDD<String, String> javaPairRDD1 = sc.parallelizePairs(Lists.newArrayList(
                new Tuple2<String, String>("cat", "11"), new Tuple2<String, String>("dog", "22"),
                new Tuple2<String, String>("cat", "33"), new Tuple2<String, String>("pig", "44"),
                new Tuple2<String, String>("duck", "55"), new Tuple2<String, String>("cat", "66")), 2);

        System.out.println(javaPairRDD1.count());
    }
}
结果
19/03/20 15:22:06 INFO DAGScheduler: ResultStage 0 (count at Count.java:23) finished in 0.151 s
19/03/20 15:22:06 INFO DAGScheduler: Job 0 finished: count at Count.java:23, took 0.721442 s
6
19/03/20 15:22:06 INFO SparkContext: Invoking stop() from shutdown hook
19/03/20 15:22:06 INFO SparkUI: Stopped Spark web UI at http://10.124.209.6:4040

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值