在Hadoop分配任务时,可以由一步MapReduce将数据拆分,每一份放在一个结点上。 经过观察,每一份被分配到的结点是确定而非随机的。 而HDFS上的文件,可以在Hadoopfs/data/current/ 下被本地访问。可以用文件创建时间来区分block(最新).