HDFS 小文件处理

1)会有什么影响

        (1)1个文件块,占用namenode内存150字节

                1亿个小文件*150字节

                1 个文件块 * 150字节

        128G能存储多少文件块?   128 * 1024*1024*1024byte/150字节 = 9亿文件块

        导致运行的效率很低,每个task处理的数据都很少,每个并行计算的task数据量都很少,本身这些数据存储在hdfs(磁盘),寻址也需要时间,如果处理都是小文件,就会导致处理的很慢

2)怎么解决

        (1)采用har归档方式,将小文件归档

        (2)采用CombineTextInputFormat

        (3)有小文件场景开启JVM重用;如果没有小文件,不要开启JVM重用,因为会一直占用使用到的task卡槽,直到任务完成才释放

        JVM重用可以使得JVM实例在同一个job中重新使用N次,N的值可以在Hadoop的mapred-site.xml文件中进行配置。通常在10-20之间

<property>

    <name>mapreduce.job.jvm.numtasks</name>

    <value>10</value>

    <description>How many tasks to run per jvm,if set to -1 ,there is  no limit</description>

</property>   

最根本的解决方案,不产生小文件,自己写代码,难度比较大(百度出代码,修改)

          就是让hdfs上的小文件不产生,要么就是你在上传文件之前,如果有小文件你就合并,先获取到文件的大小,我们的文件合并为多大,每个文件的大小是比较固定的128M, 开启线程,采用多线程的方式,如果文件在hdfs已经有了,上把合并的文件写入临时目录,再把这个目录的文件覆盖掉之前的小文件目录,如果在hdfs 上没有,直接写入

        如果数据是通过flume采集过来的,flume的hdfs sink配置3个参数,生成的文件的滚动策略,这样可以避免小文件的产生。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

星有印象

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值