inputSplit.java分析

原创 2013年12月03日 15:52:45
/**
 * Licensed to the Apache Software Foundation (ASF) under one
 * or more contributor license agreements.  See the NOTICE file
 * distributed with this work for additional information
 * regarding copyright ownership.  The ASF licenses this file
 * to you under the Apache License, Version 2.0 (the
 * "License"); you may not use this file except in compliance
 * with the License.  You may obtain a copy of the License at
 *
 *     http://www.apache.org/licenses/LICENSE-2.0
 *
 * Unless required by applicable law or agreed to in writing, software
 * distributed under the License is distributed on an "AS IS" BASIS,
 * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
 * See the License for the specific language governing permissions and
 * limitations under the License.
 */

package org.apache.hadoop.mapreduce;

import java.io.IOException;

import org.apache.hadoop.mapreduce.InputFormat;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.RecordReader;

/**
 * <code>InputSplit</code> represents the data to be processed by an 
 * individual {@link Mapper}. 
 *代表将要被mapper独自处理的分割文件。
 * <p>Typically, it presents a byte-oriented view on the input and is the 
 * responsibility of {@link RecordReader} of the job to process this and present
 * a record-oriented view.
 * 
 * @see InputFormat
 * @see RecordReader
 */
public abstract class InputSplit {
  /**
   * Get the size of the split, so that the input splits can be sorted by size.
   * 得到分割文件的大小 这样分割文件可以按大小排序
   * @return the number of bytes in the split
   * @throws IOException
   * @throws InterruptedException
   */
  public abstract long getLength() throws IOException, InterruptedException;

  /**
   * Get the list of nodes by name where the data for the split would be local.
   * The locations do not need to be serialized.
   * 获得 分割文件将要本地化哪里的节点列表 ,本地化不需要序列化。
   * @return a new array of the node nodes.
   * @throws IOException
   * @throws InterruptedException
   */
  public abstract 
    String[] getLocations() throws IOException, InterruptedException;
}

相关文章推荐

MapReduce源码分析之InputSplit分析

前言 MapReduce的源码分析是基于Hadoop1.2.1基础上进行的代码分析。 什么是InputSplit        InputSplit是指分片,在MapReduce当中作业中,...
  • chlaws
  • chlaws
  • 2014年04月03日 23:15
  • 10403

MapReduce中InputFormat和InputSplit解读

Windows系统中文件大小和占用空间不同的原因解析 1.“文件大小”与“所占空间”的差别      为了便于大家理解,我们先来看两个例子: 例1:找到D盘上的Ersave2.dat文件,用鼠标右键单...
  • zolalad
  • zolalad
  • 2013年10月12日 16:06
  • 2713

解析如何读取文件形成InputSplit

1、首先简单的知道InputFormat是将文件以什么样的形式加在到内存中? hadoop内置了很多的InputFormat的具体实现的类例如抽象类FileInputFormat,DBInputFo...

[Hadoop]MapReduce中的InputSplit

在查看数据块的如何处理之前,我们需要更仔细地了解Hadoop如何存储数据。在Hadoop中,文件由一个一个的记录组成,最终由mapper任务一个一个的处理。例如,示例数据集包含有关1987至2008年...

MapReduce中如何处理跨行的Block和InputSplit

1 提出问题 Map最小输入数据单元是InputSplit。比如对于那么对于一个记录行形式的文本大于128M时,HDFS将会分成多块存储(block),同时分片并非到每行行尾。这样就会产生两个问题: ...

hadoop源码阅读之一:MR第一步:InputSplit和InputFormat类

mapreduce运行的第一步:文件的切分。 一、inputsplit类 代表传给一个单独mapper任务的数据。inputsplit是一个抽象类,定义了如下方法: getLength:得到每个inp...

MapReduce中跨InputSplit数据的处理

LineRecordReader类的分析 InputSplit只是一个逻辑概念,每个InputSplit并没有对文件进行实际的切割,只是记录了要处理的数据的位置,首先说明InputSplit的生成:...

在mapper中获得inputsplit的信息

在社区版的hadoop版本0.19/0.20中,当使用普通的输入的时候,比如 job.setInputFormatClass(TextInputFormat.class); 在...

数据结构与算法分析-Java语言版

  • 2017年10月26日 17:25
  • 35.93MB
  • 下载
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:inputSplit.java分析
举报原因:
原因补充:

(最多只允许输入30个字)