Spark学习日记2

键值对RDD常用操作:

1.分组: groupByKey(), 会对RDD进行hash分区

2.连接: join, leftOuterJoin, rightOuterJoin,效果如下:


join就是将两个RDD相同key的value组合在了一起,leftOuterJoin表示源RDD的每个key都有value,目的RDD的key的value是可以optional的,如果没有就是None。rightOuterJoin反之。

3.排序:sortByKey() 默认升序,可以通过重载compare方法定义自己的排序方式

4.计数,coutByKey()

5.查找,lookup(Key)

6.以map形式返回:collectAsMap()

*********************************************************

分区:在进行类似RDD连接或者需要对跨node的RDD进行重复键值对操作的时候,如果进行了RDD分区,可以提高效率,具体如:

val userData = sc.sequeceFile[userID, UserInfo]("hdfs://...")

                            .partitionBy(new HashPartitioner(100)) //创建100个hash分区,对于key%100相同的key会落入同一个节点

                            .persist()

在进行userData.join(OtherRDD)时,userData的数据不会产生混洗,也就减少了网络流量,提高了效率

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值