Hadoop案例wordCount执行流程

mapreudce操作

统计文件中单词出现次数
在这里插入图片描述

将mapreduce程序打jar包,放到hadoop机器上
执行hadoop jar xsf.jar mapreduce.Dirverx /123 /usr/local/server/hadoop-2.10.0/out

mapreduce.Dirverx为driver类全限定类名
/123: 为输入文件路径默认从hdfs上读取
/usr/local/server/hadoop-2.10.0/out:为结果输出路径

查看输出结果
在这里插入图片描述

mapreduce流程

mapreduce程序包含map方法、reduce方法、driver方法

(1)Map方法对文件切片的每行数据进行处理,入参为(行首的偏移量,每行内容)组成的key,value键值对。对每行内容进行处理,分割出单词,通过上下文context输出(单词,出现次数1)键值对

public class Mapperx extends Mapper<LongWritable, Text,Text, IntWritable> {
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        // AAA BBB CCCC
        String line = value.toString();
        // 切分数据
        String[] words = line.split(" ");

        for (String word : words){
        // AAA 1   BBB 1 CCCC 1
            context.write(new Text(word),new IntWritable(1));
        }
    }
}

(2)对map阶段输出的键值对进行处理,相同的key为一组。Reduce方法入参(key,相同key的value集合)。进行求和后输出。

public class Reducex extends Reducer<Text, IntWritable,Text,IntWritable> {
    @Override
    protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
        int sum = 0;
        for (IntWritable value : values){
            sum += value.get();
        }
        // AAA 2
        context.write(key,new IntWritable(sum));
    }
}

(3)driver对mapreduce任务进行定义配置并提供执行入口

public class Dirverx  {
    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        Job job = Job.getInstance(new Configuration());

        job.setJarByClass(Dirverx.class);

        job.setMapperClass(Mapperx.class);
        job.setReducerClass(Reducex.class);

        //map输出类型
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(IntWritable.class);

		// 输出结果
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);

        // 文件输入输出路径
        FileInputFormat.setInputPaths(job, new Path(args[0]));
        FileOutputFormat.setOutputPath(job,new Path(args[1]));
		// 提交
        boolean b = job.waitForCompletion(true);
        System.exit(b ?0:1);

    }
}

在这里插入图片描述

(1) 大文件被分为多个切片,每个切片由一个MapTask进程处理。默认每次读取切片的一行,调用map方法。
(2) Map方法输出的结果键值对再写入环形缓存区前,调用part方法获取该key对应的分区号。默认key的hash值 % 设置的reduceTask数量。
(3) 缓冲区快写满,对存储数据进行快速排序后,写入本地磁盘。
在这里插入图片描述

(4) 程序从多台机器上将多个文件切片处理后的结果,下载后进行汇总归并为一个文件

在这里插入图片描述

(5) 对文件中相邻两个key进行比较,最终将key相同的value集合调用reduce方法处理,最终输出到hdfs。
在这里插入图片描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop YARN(Yet Another Resource Negotiator)是Hadoop的集群资源管理系统,负责集群资源的分配和任务的调度。以下是Hadoop YARN的执行流程: 1. 提交作业:用户通过客户端向YARN提交作业,包括应用程序的代码和所需的资源配置。 2. 资源请求:YARN的ResourceManager接收到作业提交请求后,会为该作业分配一个唯一的Application ID,并将作业相关的信息记录在内部数据结构中。 3. 资源分配:ResourceManager根据集群中可用的资源情况,分配合适的Container给作业。Container是一个虚拟的计算资源单元,可以运行一个或多个任务。 4. 任务调度:一旦ResourceManager为作业分配了Container,它会将Container的相关信息发送给NodeManager,NodeManager负责管理和监控Container的运行。 5. 任务执行:一旦NodeManager接收到Container的信息,它会启动Container,并运行作业中的任务。任务可以是Map任务或Reduce任务,由应用程序代码定义。 6. 任务监控:NodeManager会监控任务的运行状态,并将进度和日志信息发送给ResourceManager。 7. 容错和恢复:如果任务失败或节点故障,YARN会自动重新分配和启动失败的任务。此外,它还能够根据配置策略进行容错和恢复操作。 8. 完成作业:当作业中的所有任务都成功完成时,YARN会将作业的最终状态和结果返回给客户端。 总体而言,Hadoop YARN通过ResourceManager和NodeManager的协调与管理,实现了任务的分配、调度和执行,以及容错和恢复等功能,从而实现了高效的集群资源管理和作业执行

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值