TextInputFormat之getSplits函数分析

Client提交任务后,JobInProgress类会调用设置的InputFormat类的getSplits函数。

下面分析下TextInputFormat格式的getSplits函数。

先调用了这个函数

/** List input directories.

   * Subclasses may override to, e.g., select only files matching a regular

   * expression.

   * Property mapred.input.subdir, if set, names a subdirectory that

   * is appended to all input dirs specified by job, and if the given fs

   * lists those too, each is added to the returned array of File.

   * @param fs

   * @param job

   * @return array of File objects, never zero length.

   * @throws IOException if zero items.

   */

  protected File[] listFiles(FileSystem fs, JobConf job)

    throws IOException {

    File[] dirs = job.getInputDirs();//获取多个输入路径

    String workDir = job.getWorkingDirectory();//"mapred.working.dir"

    String subdir = job.get("mapred.input.subdir");//获取子目录

    ArrayList result = new ArrayList();//构造一个空集合

    for (int i = 0; i < dirs.length; i++) {//对于每一个目录来说

      // if it is relative, make it absolute using the directory from the 

      // JobConf

      if (workDir != null && !fs.isAbsolute(dirs[i])) {//先加工成绝对路径

        dirs[i] = new File(workDir, dirs[i].toString());

      }

      File[] dir = fs.listFiles(dirs[i]);//获取下面的所有文件

      if (dir != null) {

        for (int j = 0; j < dir.length; j++) {//对于每一个文件来说

          File file = dir[j];//获取当前文件

          if (subdir != null) {//根据需要决定是否需要遍历子目录

            File[] subFiles = fs.listFiles(new File(file, subdir));

            if (subFiles != null) {

              for (int k = 0; k < subFiles.length; k++) {

                result.add(subFiles[k]);

              }

            }

          } else {

            result.add(file);//添加到集合

          }

        }

      }

    }

    if (result.size() == 0) {

      throw new IOException("No input directories specified in: "+job);

    }

    return (File[])result.toArray(new File[result.size()]);//返回所有文件列表

  }

 --------------

 

/** Splits files returned by {#listFiles(FileSystem,JobConf) when

   * they're too big.*/ 

  public FileSplit[] getSplits(FileSystem fs, JobConf job, int numSplits)

    throws IOException {

    File[] files = listFiles(fs, job);//调用上面的函数获取所有文件

    for (int i = 0; i < files.length; i++) {      // check we have valid files

      File file = files[i];//拿到当前文件

      if (fs.isDirectory(file) || !fs.exists(file)) {//如果是一个目录或者是不存在的文件

        throw new IOException("Not a file: "+files[i]);//抛出异常

      }

    }

    long totalSize = 0; //开始计算,总大小初始化为0             // compute total size

    for (int i = 0; i < files.length; i++) {

      totalSize += fs.getLength(files[i]);//统计所有文件的大小

    }

    long bytesPerSplit = totalSize / numSplits;   //总的大小/map的个数

//限制1:不能超过块长度

    long fsBlockSize = fs.getBlockSize();//获取块大小

    if (bytesPerSplit > fsBlockSize) {            // no larger than fs blocks

      bytesPerSplit = fsBlockSize;//保证不超过块大小

    }

    

    //限制2:不能小于最低长度

    long configuredMinSplitSize = job.getLong("mapred.min.split.size", 0);//获取配置的最小分片大小

    if( configuredMinSplitSize < minSplitSize )

     configuredMinSplitSize = minSplitSize;//校正

    if (bytesPerSplit < configuredMinSplitSize) { // no smaller than min size

      bytesPerSplit = configuredMinSplitSize;//不能小于最低大小

    }

    long maxPerSplit = bytesPerSplit + (long)(bytesPerSplit*SPLIT_SLOP);//计算溢出10%的长度

    //LOG.info("bytesPerSplit = " + bytesPerSplit);

    //LOG.info("maxPerSplit = " + maxPerSplit);

    ArrayList splits = new ArrayList(numSplits);  //产生分片存储结构,注意ArrayList会自动扩容

    for (int i = 0; i < files.length; i++) {//开始遍历文件

      File file = files[i];//获取当前文件

      long length = fs.getLength(file);//获取长度[这里完全可以做缓存好吧,不需要增加网络IO开销]

      long bytesRemaining = length;//初始化为当前文件大小

      while (bytesRemaining >= maxPerSplit) {//还有剩余大小

        splits.add(new FileSplit(file, length-bytesRemaining, bytesPerSplit));//添加1Block长度

        bytesRemaining -= bytesPerSplit;//调整剩余长度

      }

      

      if (bytesRemaining != 0) {//将最后一个Block加入

        splits.add(new FileSplit(file, length-bytesRemaining, bytesRemaining));

      }

      //LOG.info( "Generating splits for " + i + "th file: " + file.getName() );

    }

    //LOG.info( "Total # of splits: " + splits.size() );

    return (FileSplit[])splits.toArray(new FileSplit[splits.size()]);//返回结果

  }

那么具体JobTrackr又做了什么事情呢?

 

/**

     * Construct the splits, etc.  This is invoked from an async

     * thread so that split-computation doesn't block anyone.

     */

    public void initTasks() throws IOException {

        if (tasksInited) {//如果已经初始化过了,则直接返回

            return;

        }

        //

        // construct input splits

        //

        String jobid = profile.getJobId();//获取当前的job的随机ID

        String jobFile = profile.getJobFile();//获取配置文件在HDFS中的路径

        JobConf jd = new JobConf(localJobFile);//根据本地文件重新生成jobconf对象

        FileSystem fs = FileSystem.get(conf);//获取分布式文件系统

        String ifClassName = jd.get("mapred.input.format.class");//获取输入格式所属类名

        InputFormat inputFormat;

        if (ifClassName != null && localJarFile != null) {

          try {

            ClassLoader loader =

              new URLClassLoader(new URL[]{ localJarFile.toURL() });

            Class inputFormatClass = loader.loadClass(ifClassName);

            inputFormat = (InputFormat)inputFormatClass.newInstance();

          } catch (Exception e) {

            throw new IOException(e.toString());

          }

        } else {

          inputFormat = jd.getInputFormat();//默认为TextInputFormat.class

        }

        FileSplit[] splits = inputFormat.getSplits(fs, jd, numMapTasks);//设置分片结束

        //

        // sort splits by decreasing length, to reduce job's tail

        //

        Arrays.sort(splits, new Comparator() {//对 splits进行排序,长度逐一降低

            public int compare(Object a, Object b) {

                long diff =

                    ((FileSplit)b).getLength() - ((FileSplit)a).getLength();

                return diff==0 ? 0 : (diff > 0 ? 1 : -1);

            }

        });

        //

        // adjust number of map tasks to actual number of splits

        //

        this.numMapTasks = splits.length;//重新设置numMapTasks为真正的分片个数

        // create a map task for each split

        this.maps = new TaskInProgress[numMapTasks];//构造容器

        for (int i = 0; i < numMapTasks; i++) {//初始化

            maps[i] = new TaskInProgress(jobFile, splits[i], jobtrackerconfthis);

        }

        //

        // Create reduce tasks

        //

        this.reduces = new TaskInProgress[numReduceTasks];//构造容器

        for (int i = 0; i < numReduceTasks; i++) {//初始化

            reduces[i] = new TaskInProgress(jobFile, maps, i, jobtrackerconfthis);

        }

        // 

        // Obtain some tasktracker-cache information for the map task splits.

        //

        for (int i = 0; i < maps.length; i++) {//对于每一个map任务来说

            String hints[][] = fs.getFileCacheHints(splits[i].getFile(), splits[i].getStart(), splits[i].getLength());

            cachedHints.put(maps[i].getTIPId(), hints);//存储blockDataNode的对应关系

        }

        this.status = new JobStatus(status.getJobId(), 0.0f, 0.0f, JobStatus.RUNNING);//设置成Running状态

        tasksInited = true;//标识为已经初始化状态

    }

到这里为止,JobInProgress对象才真正初始化完毕!

 拓展阅读:

http://blog.csdn.net/strongerbit/article/details/7440111

转载于:https://my.oschina.net/qiangzigege/blog/362575

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值