大数据大作业(课程设计)(1)

    public TokenizerMapper() {
        // 构造函数,没有实际操作
    }

    public void map(Object key, Text value, Mapper<Object, Text, Text, IntWritable>.Context context) 
            throws IOException, InterruptedException {
        // 实现 Mapper 类中的 map 函数,对输入数据进行处理

        StringTokenizer itr = new StringTokenizer(value.toString());  // 将输入数据转化为字符串
        while(itr.hasMoreTokens()) {  // 如果还有单词可以读取
            this.word.set(itr.nextToken());  // 获取下一个单词
            context.write(this.word, one);  // 输出键值对,键为单词,值为 one
        }
    }
}

public static class IntSumReducer extends Reducer<Text, IntWritable, Text, IntWritable> {
    // 定义一个 Reducer 类,继承自 Reducer<Text, IntWritable, Text, IntWritable>

    private IntWritable result = new IntWritable();  // 定义一个整数类型变量 result,用于保存累加结果

    public IntSumReducer() {
        // 构造函数,没有实际操作
    }

    public void reduce(Text key, Iterable<IntWritable> values, 
                       Reducer<Text, IntWritable, Text, IntWritable>.Context context)
            throws IOException, InterruptedException {
        // 实现 Reducer 类中的 reduce 函数,对经过 Mapper 处理后的数据进行汇总

        int sum = 0;  // 定义一个整数变量 sum,用于保存累加结果
        for(IntWritable val : values) {  // 遍历键值对列表
            sum += val.get();  // 累加键值对的值
        }
        this.result.set(sum);  // 将累加的结果设置为 result 的值
        context.write(key, this.result);  // 输出键值对,键为单词,值为累加结果
    }
}

}


        3、将做好的新闻分词文件上传至hadoop平台


              通过xftp将分词文本上传至Linux系统中的B20041316目录下



./bin/hdfs dfs -mkdir B20041316    #在hdfs上生成一个目录

#将文件上传至hdfs中的B20041316目录下

./bin/hdfs dfs -put ./B20041316/a1.txt B20041316


        4、将java程序生成可执行jar包后运行



运行可执行jar文件进行词频统计

./bin/hadoop jar ./myapp/WordCount.jar B20041316 output


        5、查看运行结果



./bin/hdfs dfs -cat output/*


**(2****)实现效果图:**


![](https://img-blog.csdnimg.cn/1a54b59ab2864a45b8dbc4d954b863ff.png)


图 3-1 词频统计完成


![](https://img-blog.csdnimg.cn/c4066060e148438b81bc5880d3c0e38e.png)


图 3-2 词频统计结果


ps:使用Python实现词频统计



with open(‘…/分词结果/a1.txt’, ‘r’, encoding=‘utf-8’) as f:
lines = f.read().split()
dic = {}
for w in lines:
dic[w] = dic.get(w, 0) + 1
ls = list(dic.items())
ls.sort(key=lambd

  • 16
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值