Hadoop的默认块大小是多少?为什么要设置这么大?

Hadoop的默认块大小在不同版本中有所变化,从64MB提升到128MB。设置块大小主要考虑寻址时间和磁盘传输速率的平衡,以确保效率。寻址时间过长会影响性能,而块过大则可能导致传输延迟。理想的块大小应使得寻址时间只占传输时间的1%左右。因此,默认的128MB块大小是根据磁盘传输速率来设定的。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hadoop的默认块大小是多少?为什么要设置这么大?

默认块大小:
Hadoop2.7.2版本及之前默认64MB,Hadoop2.7.3版本及之后默认128M
块大小:
HDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置,而且NameNode需要大量内存来存储元数据,不可取。如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。导致程序在处理这块数据时,会非常慢。
如果寻址时间约为10ms,而传输速率为100MB/s,为了使寻址时间仅占传输时间的1%,我们要将块大小设置约为100MB。默认的块大小128MB。块的大小:10ms100100M/s=100M,如图
在这里插入图片描述
HDFS块的大小设置主要取决于磁盘传输速率

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值