Hadoop IO操作之序列化

前言:为什么Hadoop基本类型还要定义序列化?

  1、Hadoop在集群之间通信或者RPC调用时需要序列化,而且要求序列化要快,且体积要小,占用带宽小。

  2、java的序列化机制占用大量计算开销,且序列化结构体积过大,它的引用机制也导致大文件不能被切分,浪费空间,此外,很难对其他语言进行扩展使用。

  3、java 的反序列化过程每次都会构造新的对象,不能复用对象。

Hadoop定义了两个序列化相关的接口

  -Writable

  -Comparable

WritableComparable接口相当于继承了上述两个接口的新接口。

         Public interface WritableComparable<T>  extends Writable,Comparable<T>
Writable接口

   基于DataInput与DataOutput的简单高效可序列化接口,就是org.apache.hadoop.io.Writable接口

   几乎所有的hadoop可序列化对象都必须实现这个接口有2个方法,Write,readFiles

下面以IntWritable为例,它把java的int类型封装成了Writable序列化格式,并且可以通过set()设置它的值

   -new IntWritable().set(100);   -new IntWritable(100);

    WritableComparable接口

  类似java的Comparable接口,用于类型的比较。MR其中一个阶段叫排序,默认使用Key来排序。Hadoop提供了一个优化接口RawComparator。

  Public interface RawComparator<T> extends Comparator<T>{
        Public int compare(byte[]  b1,int s1,int l1,byte[] b2,int s2,int l2);
  }
  可以比较b1和b2,允许执行者直接比较数据流记录,而无须先把数据流反序列化成对象,这样可以避免新建对象的开销

  例子:

A implements Writable,comparable{

write(DataInputStream);

DataInputStream readFiles();

comparaTo (B b){ // 二次排序

if(b.x > a.x)

}

equals();

hascode();

}

A实现了上述两种接口,就可以作为hadoop的类.

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值