HDFS中block的大小

Hadoop2.x/3.x版本中,默认Block大小为128M,原因是寻址时间(约10ms)应为传输时间(1000ms)的1%,匹配普通硬盘100M/s的传输速度。若Block过小会导致文件零散,增加查找时间;过大则会失衡寻址和传输时间,影响Map过程效率。调整Block大小需考虑硬盘传输速率。
摘要由CSDN通过智能技术生成

block的大小与修改

Hadoop2.x/3.x版本中Block的默认大小为128M,早前版本中默认为64M,开发人员可以在hdfs-site.xml中添加如下标标签进行修改。

<!-- hdfs-site.xml --> 
<property>
  <name>dfs.blocksize</name>
  #value值代表block块的大小
  <value>256m</value
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值