Hadoop中的数据块为何如此大

HDFS的数据块,默认大小为64MB,它比一般文件系统都大的多。下面我们分别来看看不同操作系统的块大小:

1.linux

本人使用的是CentOS-6.8-x86_64,如下图:
这里写图片描述
linux的块大小才1024KB,也有4086KB,但是远远小于HDFS的块大小。

2.windows

本人使用的是win764位,如下图:
这里写图片描述
windows的块大小为4086KB。

3.原因

HDFS的块比磁盘的块大,其目的是为了最小化寻址开销,如果块设置得足够大,从磁盘传输数据的时间会明显大于定位到这个块开始位置所需的时间。因而,传输一个由多个块组成的文件的时间取决于磁盘传输率。
eg:如果寻址时间约为10ms,而传输速率为100MB/s,为了是寻址时间仅占传输时间的1%,我们要将块设置为100MB。默认的块大小实际为64MB,但是很多情况下HDFS使用128MB的设置。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值