scala
Frank201608
加油吧
展开
-
Spark算子系列第1篇: reduceByKey 和 groupByKey
第一步:创建RDDval words = Array("one", "two", "two", "three", "three", "three")val wordsRDD = sc.parallelize(words).map(word => (word, 1))wordsRDD.foreach(println)RDD运行结果如下:/*(one,1)(two,1)...原创 2020-02-08 11:24:34 · 609 阅读 · 0 评论 -
大数据Spark“蘑菇云”行动-第26课:Scala的核心力量和黄金定律
本课也是Scala高级进阶第一课原创 2016-08-17 20:26:00 · 756 阅读 · 0 评论 -
大数据Spark“蘑菇云”行动-第11课:Scala面向接口彻底实战和Spark源码鉴赏
Scala中的接口,原创 2016-08-17 08:41:24 · 1014 阅读 · 0 评论