六十、Hadoop——Hadoop中求某个科目的最大值(MapReduce)

一、TopScore

package nj.zb.kb15.demo4;

import org.apache.hadoop.io.WritableComparable;

import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;

public class TopScore implements WritableComparable<TopScore> {
            private  String subjectName;
            private  int  score;

    public TopScore() {
    }

    public TopScore(String subjectName, int score) {
        this.subjectName = subjectName;
        this.score = score;
    }

    @Override
    public String toString() {
        return "TopScore{" +
                "subjectName='" + subjectName + '\'' +
                ", score=" + score +
                '}';
    }

    public String getSubjectName() {
        return subjectName;
    }

    public void setSubjectName(String subjectName) {
        this.subjectName = subjectName;
    }

    public int getScore() {
        return score;
    }

    public void setScore(int score) {
        this.score = score;
    }

    @Override
    public int compareTo(TopScore o) {
       return 0;
    }

    @Override
    public void write(DataOutput dataOutput) throws IOException {
        dataOutput.writeUTF(subjectName);
        dataOutput.writeInt(score);
    }

    @Override
    public void readFields(DataInput dataInput) throws IOException {
        this.subjectName=dataInput.readUTF();
        this.score=dataInput.readInt();
    }
}

二、TopScoreMapper

package nj.zb.kb15.demo4;


import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;

public class TopScoreMapper extends Mapper<LongWritable, Text,Text,TopScore> {

    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        System.out.println(key.get()+" "+value);
        String[] split=value.toString().split(",");
        String subjectName=split[2];
        Text text=new Text(subjectName);  //赋值Text
        TopScore topScore=new TopScore(subjectName,Integer.parseInt(split[3]));

        context.write(text,topScore);
    }
}

三、TopScoreReduce

package nj.zb.kb15.demo4;


import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;

public class TopScoreReducer extends Reducer<Text,TopScore,Text,TopScore> {
    TopScore topScore=new TopScore();

    @Override
    protected void reduce(Text key, Iterable<TopScore> values, Context context) throws IOException, InterruptedException {
        String subjectName="";
        int max=0;

        for(TopScore score:values){
            if(max<score.getScore()){
                max=score.getScore();
            }else if(subjectName.equals("")){
                subjectName=score.getSubjectName();
            }
        }
       Text text=new Text(subjectName);
        topScore.setScore(max);
        topScore.setSubjectName(subjectName);
        context.write(text,topScore);

    }
}

四、TopScoreDriver

package nj.zb.kb15.demo4;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.io.IOException;

public class TopScoreDriver {
    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {

        Configuration configuration = new Configuration();
        Job job = Job.getInstance(configuration);

        job.setJarByClass(TopScoreDriver.class);

        job.setMapperClass(TopScoreMapper.class);
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(TopScore.class);

        job.setReducerClass(TopScoreReducer.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(TopScore.class);

        FileInputFormat.setInputPaths(job, new Path("D:\\test_20211026\\in\\demo3\\stuscore.csv"));

        Path path = new Path("D:\\test_20211026\\in\\out5");

        FileOutputFormat.setOutputPath(job, path);
        FileSystem fs = FileSystem.get(path.toUri(), configuration);

        if (fs.exists(path)) {
            fs.delete(path, true);
        }
        job.waitForCompletion(true);
    }

}

五、运行结果

数学  TopScore{subjectName='数学', score=91}
英语  TopScore{subjectName='英语', score=47}
语文  TopScore{subjectName='语文', score=96}

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Hadoop MapReduce编程中,有一些常用的函数可以帮助我们进行数据处理,这些函数包括: 1. map函数:map函数是MapReduce任务中的一个重要组成部分,它将输入数据中的每个元素映射成一个键值对,并输出到Reduce任务中进行处理。在map函数中,可以进行各种数据处理操作,例如过滤、计算、转换等等。 2. reduce函数:reduce函数是MapReduce任务中的另一个重要组成部分,它对Map任务输出的键值对进行合并和聚合,最终输出一个键值对列表。在reduce函数中,可以进行各种聚合操作,例如求和、计数、最大值等等。 3. partitioner函数:partitioner函数用于将Map任务输出的键值对分配到不同的Reduce任务中进行处理。在partitioner函数中,可以根据键的哈希值或其他特定的规则,将键值对分配到不同的Reduce任务中。 4. combiner函数:combiner函数是在Map任务输出的键值对进行本地合并和聚合的函数,它可以减少数据传输量,提高MapReduce任务的效率。在combiner函数中,可以进行各种本地聚合操作,例如求和、计数、最大值等等。 5. inputformat函数:inputformat函数是用于读输入数据的函数,它定义了输入数据的格式和读方法。例如,可以使用TextInputFormat函数读文本文件,使用SequenceFileInputFormat函数读二进制文件等等。 6. outputformat函数:outputformat函数是用于输出结果数据的函数,它定义了输出数据的格式和输出方法。例如,可以使用TextOutputFormat函数将结果输出为文本文件,使用SequenceFileOutputFormat函数将结果输出为二进制文件等等。 这些函数是Hadoop MapReduce编程中常用的函数,掌握它们可以帮助我们更好地进行数据处理和分析。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

天地风雷水火山泽

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值