HDFS小文件处理

一、HDFS中小文件会有什么影响
(1)存储层面:
1个文件块,占用namenode多大内存150字节,大量小文件占用namenode内存。
128G能存储多少文件块? 128 g* 1024m1024kb1024byte/150字节 = 9.1亿文件块
(2)计算层面:
增加了切片数量,每个小文件都会起到一个MapTask,1个MapTask默认内存1G,增加了MapTask数量就增加了大量计算内存。浪费资源。

二、常见的解决方式
(1)采用har归档(企业中常用)方式,har是类似一种文件压缩方式,它能够将多个小文件打包成一个后缀为.har文件,这样减少namenode内存使用的同时,仍然允许对文件进行透明的访问。Hadoop存档是特殊格式的存档。 Hadoop归档文件映射到文件系统目录。 Hadoop归档文件始终具有* .har扩展名。 Hadoop存档目录包含元数据(以_index和_masterindex的形式)和数据(part- *)文件。 _index文件包含作为归档文件一部分的文件名以及这些文件内的位置。

(2)采用CombineTextInputFormat
(3)有小文件场景开启JVM重用;如果没有小文件,不要开启JVM重用,因为会一直占用使用到的task卡槽,直到任务完成才释放。
JVM重用可以使得JVM实例在同一个job中重新使用N次,N的值可以在Hadoop的mapred-site.xml文件中进行配置。通常在10-20之间

<property>
    <name>mapreduce.job.jvm.numtasks</name>
    <value>10</value>
    <description>How many tasks to run per jvm,if set to -1 ,there is  no limit</description>
</property> 
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HDFS中,小文件指的是文件大小远小于HDFS块大小(默认为128MB)的文件。由于HDFS是为了存储大型文件而设计的,因此存储大量小文件会导致以下问题: 1. 占用过多的NameNode内存:每个文件都需要在NameNode上维护一个元数据信息,包括文件名、权限、大小、块信息等,因此大量小文件会占用过多的NameNode内存,导致性能下降。 2. 影响数据处理效率:由于小文件数量众多,每个文件的读取和写入操作都会产生额外的开销,导致数据处理效率低下。 为了解决这些问题,可以采取以下方案来处理文件: 1. 合并小文件:将多个小文件合并为一个大文件,可以减少NameNode内存的开销,提高数据处理效率。可以使用Hadoop提供的SequenceFile格式将多个小文件合并为一个大文件。 2. 将小文件存储在HBase中:HBase是基于HDFS的分布式数据库,可以存储海量小文件,并且可以支持快速随机访问。将小文件存储在HBase中,可以减轻HDFS的压力,提高数据处理效率。 3. 将小文件压缩:对于一些无法合并的小文件,可以考虑将它们压缩为一个文件。Hadoop提供了多种压缩算法,如Gzip、Bzip2等,可以将小文件压缩为一个文件,减少磁盘空间的占用。 4. 使用Har文件:Har文件是一种特殊的归档文件格式,可以将多个小文件打包成一个文件,并且可以支持快速随机访问。可以将小文件打包为Har文件,减轻HDFS的压力,提高数据处理效率。 总之,对于HDFS中的小文件问题,需要根据实际情况选择合适的处理方法,以提高数据处理效率和系统性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值