HDFS小文件的优化

HDFS小文件弊

HDFS上每个文件都要在NameNode 上建立一个索引,这个索引的大小约为150byte,这样当小文件比较多的时候,就
会产生很多的索引文件,一方面会大量的占用NameNode 的空间,另一方面就是索引文件过大时得索引速度变慢。

HDFS小文件解决方案

小文件的优化无非以下几种方式:
(1)在数据采集的时候,就将小文件或小批数据合成大文件再上传HDFS。

(2)在业务处理之前,在HDFS上使用MapReduce程序对小文件进行合并。

(3)在MapReduce处理时,可采用CombineTextInputFormat提高效率。 

1. Hadop Archive

   是一个高效地将小文件放入HDFS块中的文件存档工具,它能个够将多个小文件打包成一个HAR文件,这样就减少
   了NameNode的内存使用。

2. sequenceFile

  sequenceFIle 由一系列的二进制key/value 组成,如果key为文件名,value 为文件内容,则可以将大批小文
  件合并成一个大文件

3. combineFileInputFormat

 combineFileInputFormat是一种新的inputFormat,用于将多个为文件合并成一个单独的split,另外,它会考
 虑数据的储存位置。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值