Hadoop切片与MapTask并行度决定机制 一、MapTask并行度决定机制 数据块:Block是HDFS物理上把数据分成一块一块。 数据切片:数据切片只是在逻辑上对输入进行分片,并不会在磁盘上将其切分成片进行存储。 hadoop数据切片大小默认与hdfs块大小相同为128M,避免MR程序读取数据时,出现跨节点读取。 二、数据切片与MapTask并行度决定机制