5)Hadoop之MapReduce(排序案例)

  • Combiner合并案例:

    • 需求:
      统计过程中对每一个MapTask的输出进行局部汇总,以减小网络传输量即采用Combiner功能。

      • 需求分析:
    • 案例实操-方案一
      ①增加一个WordcountCombiner类继承

      public class WordcountCombiner extends Reducer<Text, IntWritable, Text, IntWritable>{
      
        IntWritable v = new IntWritable();
      
         @Override
        protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
      
          // 1 汇总
          int sum = 0;
      
          for(IntWritable value :values){
              sum += value.get();
          }
      
          v.set(sum);
      
          // 2 写出
          context.write(key, v);
        }
      }

      ②在WordcountDriver驱动类中指定Combiner

      // 指定需要使用combiner,以及用哪个类作为combiner的逻辑
      job.setCombinerClass(WordcountCombiner.class);
    • 案例实操-方案二
      ①将WordcountReducer作为Combiner在WordcountDriver驱动类中指定
      // 指定需要使用Combiner,以及用哪个类作为Combiner的逻辑
      job.setCombinerClass(WordcountReducer.class);
      运行程序,如图所示:

  • GroupingComparator分组(辅助排序)

    • 对Reduce阶段的数据根据某一个或几个字段进行分组。
      分组排序步骤:
      (1)自定义类继承WritableComparator
      (2)重写compare()方法
      @Override
      public int compare(WritableComparable a, WritableComparable b) {
         // 比较的业务逻辑
         return result;
      }
      (3)创建一个构造将比较对象的类传给父类
      protected OrderGroupingComparator() {
        super(OrderBean.class, true);
      }
  • GroupingComparator分组案例实操
    1. 需求
    有如下订单数据

    期望输出:
    1 222.8
    2 722.4
    3 232.8
    2. 需求分析
    (1)利用“订单id和成交金额”作为key,可以将Map阶段读取到的所有订单数据按照id升序,如果id相同再按照金额降序排序,发送到Reduce。
    (2)在Reduce端利用groupingComparator将订单id相同的kv聚合成组,然后取第一个即是该订 单中最贵商品,过程分析如下图:

    3. 代码实现:
    (1)定义订单信息OrderBean类

public class OrderBean implements WritableComparable<OrderBean> {

    private int order_id; // 订单id号
    private double price; // 价格

    public OrderBean() {
        super();
    }

    public OrderBean(int order_id, double price) {
        super();
        this.order_id = order_id;
        this.price = price;
    }

    @Override
    public void write(DataOutput out) throws IOException {
        out.writeInt(order_id);
        out.writeDouble(price);
    }

    @Override
    public void readFields(DataInput in) throws IOException {
        order_id = in.readInt();
        price = in.readDouble();
    }

    @Override
    public String toString() {
        return order_id + "\t" + price;
    }

    public int getOrder_id() {
        return order_id;
    }

    public void setOrder_id(int order_id) {
        this.order_id = order_id;
    }

    public double getPrice() {
        return price;
    }

    public void setPrice(double price) {
        this.price = price;
    }

    // 二次排序
    @Override
    public int compareTo(OrderBean o) {

        int result;

        if (order_id > o.getOrder_id()) {
            result = 1;
        } else if (order_id < o.getOrder_id()) {
            result = -1;
        } else {
            // 价格倒序排序
            result = price > o.getPrice() ? -1 : 1;
        }

        return result;
    }
}

(2)编写OrderSortMapper类

public class OrderMapper extends Mapper<LongWritable, Text, OrderBean, NullWritable> {

    OrderBean k = new OrderBean();

    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

        // 1 获取一行
        String line = value.toString();

        // 2 截取
        String[] fields = line.split("\t");

        // 3 封装对象
        k.setOrder_id(Integer.parseInt(fields[0]));
        k.setPrice(Double.parseDouble(fields[2]));

        // 4 写出
        context.write(k, NullWritable.get());
    }
}

(3)编写OrderSortGroupingComparator类

public class OrderGroupingComparator extends WritableComparator {

    protected OrderGroupingComparator() {
        super(OrderBean.class, true);
    }

    @Override
    public int compare(WritableComparable a, WritableComparable b) {

        OrderBean aBean = (OrderBean) a;
        OrderBean bBean = (OrderBean) b;

        int result;
        if (aBean.getOrder_id() > bBean.getOrder_id()) {
            result = 1;
        } else if (aBean.getOrder_id() < bBean.getOrder_id()) {
            result = -1;
        } else {
            result = 0;
        }

        return result;
    }
}

(4)编写OrderSortReducer类

public class OrderReducer extends Reducer<OrderBean, NullWritable, OrderBean, NullWritable> {

    @Override
    protected void reduce(OrderBean key, Iterable<NullWritable> values, Context context)      throws IOException, InterruptedException {

        context.write(key, NullWritable.get());
    }
}

(5)编写OrderSortDriver类

public class OrderDriver {

    public static void main(String[] args) throws Exception, IOException {

// 输入输出路径需要根据自己电脑上实际的输入输出路径设置
        args  = new String[]{"e:/input/inputorder" , "e:/output1"};

        // 1 获取配置信息
        Configuration conf = new Configuration();
        Job job = Job.getInstance(conf);

        // 2 设置jar包加载路径
        job.setJarByClass(OrderDriver.class);

        // 3 加载map/reduce类
        job.setMapperClass(OrderMapper.class);
        job.setReducerClass(OrderReducer.class);

        // 4 设置map输出数据key和value类型
        job.setMapOutputKeyClass(OrderBean.class);
        job.setMapOutputValueClass(NullWritable.class);

        // 5 设置最终输出数据的key和value类型
        job.setOutputKeyClass(OrderBean.class);
        job.setOutputValueClass(NullWritable.class);

        // 6 设置输入数据和输出数据路径
        FileInputFormat.setInputPaths(job, new Path(args[0]));
        FileOutputFormat.setOutputPath(job, new Path(args[1]));

        // 8 设置reduce端的分组
        job.setGroupingComparatorClass(OrderGroupingComparator.class);

        // 7 提交
        boolean result = job.waitForCompletion(true);
        System.exit(result ? 0 : 1);
    }
}
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: HadoopMapReduce实战案例有很多,以下是一些常见的案例: 1. WordCount:统计文本中单词出现的次数。 2. TopN:找出文本中出现次数最多的前N个单词。 3. 求平均值:计算文本中一列数字的平均值。 4. 倒排索引:将文本中的单词与出现的文档建立索引,方便快速查找。 5. 关联规则挖掘:通过分析大量数据,找出其中的关联规则,如购物篮分析。 6. 图像处理:通过MapReduce处理大量图像数据,如图像分类、图像识别等。 7. 推荐系统:通过分析用户行为数据,为用户推荐相关的产品或服务。 8. 日志分析:通过MapReduce处理大量日志数据,如网站访问日志、服务器日志等,分析用户行为、系统性能等。 以上是一些常见的HadoopMapReduce实战案例,实际应用中还有很多其他的案例。 ### 回答2: Hadoop是一个开源的分布式存储和处理大数据的解决方案,而MapReduceHadoop中的一种计算框架。其实战案例很多,下面就列举一些经典的案例。 1. 单词计数:在一个大文本文件中统计每个单词出现的次数,是Hadoop入门案例MapReduce的Map函数进行分割文本并将每个单词都映射到(key,value)对上,reduce函数对同一个key的value进行合并并输出。 2. 网页排名:Google使用了PageRank算法对网页搜索结果进行排序,而这个排序算法的实现就是MapReduce模型。Map函数将网页信息和链接信息映射到(key,value)对上,reduce函数计算网页的排名并输出。 3. 日志分析:大型网站的日志通常非常庞大,Hadoop可应用于实时分析与处理这些日志。MapReduce的Map函数解析日志并提取重要信息,reduce函数进行计数统计或者聚合操作。 4. 图像处理:MapReduce模型常用于图像识别、处理和分析。Map函数把处理的图像块分配到不同的机器上,在不同的机器上并行化地处理。而reduce函数通常用于汇总结果并输出。 这些案例只是MapReduceHadoop中的应用之一,Hadoop还可以通过Hive、Pig等组件来对数据进行高层次的查询、脚本处理和数据分析。Hadoop在大数据领域的应用日益广泛,如商业智能、金融风控、医疗健康等,在数据收集、存储和处理中扮演着重要的角色。 ### 回答3: Hadoop是一个大数据处理平台,而MapReduce是其中最主要的一种分布式计算框架。MapReduce的核心思想是将一个大数据集拆分成多个子集,然后通过并行计算将这些子集进行处理得到最终结果。 在实际应用中,人们利用HadoopMapReduce来处理各种各样的大数据问题。下面我们来介绍一些MapReduce的实战案例: 1.单词统计 这是一个最简单却也最典型的案例。它的思路是读入一个大文本文件,然后将文件中每个单词逐个拆分出来,统计每个单词出现的频次,并将结果输出。这个过程可以通过MapReduce的"map"和"reduce"函数来实现。其中"map"函数负责将文本文件拆分成单词,将每个单词与1这个数字配对,并将结果输出。而"reduce"函数负责将配对结果按照单词将其分组,然后将每组中所有数字进行累加,得到每个单词的频次。 2. 声明式流媒体处理 MapReduce不仅仅是用来处理静态的大数据,还可以用来处理流媒体数据。具体来说,就是将流媒体数据流中的元素分割成小块,逐块对其进行MapReduce运算处理,得到最终结果。例如,在一个音乐流媒体应用中,我们可以通过MapReduce对歌曲库进行快速索引,以便用户能够快速检索和播放他们喜爱的歌曲。同时,在流媒体数据处理过程中,MapReduce还能够根据所处理的数据类型,自动调整MapReduce算法的参数和并行度,以确保处理效率和质量。 3.处理图形数据 图形处理是一个非常关键的应用领域。通过MapReduce计算框架,我们能够处理极大规模的图形数据集,例如在社交网络中对用户关系进行建模或者对搜索引擎中的网页链接关系进行分析。具体操作过程是,我们首先通过MapReduce的"map"函数将每个节点的邻居节点列表作为输出键值,将每个节点的ID作为输出值。然后通过MapReduce的"reduce"函数将具有相同邻居节点的节点交给同一个处理器进行处理。最终,我们得到的结果是每个节点及其所有邻居节点的详细信息。 总之,以上三个案例充分展示了MapReduce在大数据处理过程中的应用价值。作为一种分析大规模数据和自动化处理复杂问题的工具,MapReduce框架不仅使我们能够更好地管理和分析数据,而且还推动了数据处理领域的创新和发展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值