Hadoop为何不适合小文件

  今天吃中饭时同事提到这个问题,刚好最近在学习Hadoop,还真不知道为什么,晚上查了下,主要有这样几种原因:

1、任何一个文件,目录和block,在HDFS中都会被表示为一个object存储在namenode的内存中,每一个object占用150 bytes的内存空间,当文件非常多时内存会爆掉;
2、Map-Reduce分解后会有很多MapTask处理小文件,总的处理时间相对于大文件来说会高;
3、 跑在HDFS 上的应用与一般的应用不同,它们主要是以流式读为主,做批量处理;比 之关注数据访问的低延迟问题,更关键的在于数据访问的高吞吐量。


软件的使用还是得取决于应用,每一个软件都有自己拿手的绝活,而这也可能是其致命伤。

参考地址:

http://dennis-zane.javaeye.com/blog/200508

http://hi.chinaunix.net/?uid-20651567-action-viewspace-itemid-32134

原文网址:http://rickylee86.blog.163.com/blog/static/6022545220102300334248/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值