Spark
Lxjyh99
这个作者很懒,什么都没留下…
展开
-
spark会产生shuffle的算子
去重def distinct()def distinct(numPartitions: Int)聚合def reduceByKey(func: (V, V) => V, numPartitions: Int): RDD[(K, V)]def reduceByKey(partitioner: Partitioner, func: (V, V) => V): RDD[(K, V)...转载 2018-12-14 21:30:51 · 2602 阅读 · 0 评论 -
spark的持久化和checkpoint的区别
RDD 可以使用 persist() 方法或 cache() 方法进行持久化cache 底层调用的是 persist 方法,存储等级为: memory only,persist 的默认存储级别也是 memory only,persist 与 cache 的主要区别是 persist 可以自定义存储级别。哪些 RDD 需要 cache ? 会被重复使用的(但是)不能太大的RDD需要cache,ca...原创 2018-12-14 22:12:54 · 892 阅读 · 0 评论 -
Spark 创建RDD、DataFrame各种情况的默认分区数
转载自董可伦的博文:https://dongkelun.com/2018/08/13/sparkDefaultPartitionNums/转载 2018-12-17 14:25:31 · 678 阅读 · 0 评论 -
sparkstreaming和kafka集成的两种方式
转载地址:https://blog.csdn.net/weixin_39478115/article/details/78884876转载 2019-01-09 19:37:10 · 292 阅读 · 0 评论