Spark自定义RDD从HDFS读取数据

1 思考- sc.txexFile会发生数据倾斜吗?自定义有必要吗?

       一个task读取一个block中的数据,多少个block就会产生多少个Task,如果两个Task之间数据相差很多,那是因为两个block中数据分布不均匀造成的。。。

       从HDFS读取数据,如果HDFS数据存在很多block,会使得分区partition很多,远远大于core数,这时候可以使用repartition方法将分区减少,但是最好的办法是从根源解决,所以自定义RDD,自行设定每个RDD读取字节起始范围,从而实现partition自定义化;

2 思路

只需要重写3个方法:getPartitions  getPreferredLocations compute

  • getPartitions :返回一个Partition数组,也就是当前读取HDFS数据需要划分为多少个分区,默认情况下,分区数和HDFS数据的block数是一致的
  • getPreferredLocations:当一个Task带着Partition过来,返回这个Task优先在哪几个节点进行计算,返回是一个Seq,其实就是partition中的数据所在hdfs block的主数据和备份数据所在节点
  • compute:Task带着Partition过来,返回此partitin中的数据的Iterator读取接口(这个需要自己实现,根据此Partition对应的HDFS block数据构建InputStream读取流,然后返回一个自定义的Iterator)

3 实现代码

  • MyIterator:自定义的将InputStream流转换成scala.Iterator,注意实现了完整行的读取。
  • CustomeRDDHDFS:自定义的读取HDFS的RDD类
  • CustomeRDDHDFSTest:测试读取HDFS数据的测试类

运行效果发现和sc.textFile是一样的

代码已上传

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值