【大数据实验】Mapreduce的应用:统计词频,输出出现次数最多的前十个单词

目录

实验内容

实验命令操作

实验源码 

实验结果

实验报告


实验内容

熟悉在Linux使用Java编写Mapreduce程序,编写wordcount程序,找出词频排在前十的词。

实验命令操作

打开终端,根据一下提示,输入命令:

启动hadoop
cd /usr/local/hadoop
./sbin/start-dfs.sh

判断hadoop是否启动成功,成功会有显示
jps

查看jar包

cd /usr/local/hadoop/myapp
ls 

上传词频文件cipin.txt  将其存放在input文件夹中存放的内容是你要统计词频的语段
./bin/hdfs dfs -put /home/hadoop/cipin.txt input

查看hadoop目录  查看input文件夹下的内容
./bin/hdfs dfs -ls
./bin/hdfs dfs -ls input

删除output文件夹,不删除会报错
./bin/hdfs dfs -rm -r output./

运行实验3程序
./bin/hadoop jar ./myapp/shiyan3.jar input output
显示运行结果
./bin/hdfs dfs -cat output/*

关闭hadoop
./sbin/stop-dfs.sh

PS:cipin.txt的内容需要自己编写。可以在本地编辑好了,再上传到hadoop。

实验源码 

package sy;
import java.io.IOException;
import java.util.Collections;
import java.util.Comparator;
import java.util.HashMap;
import java.util.LinkedList;
import java.util.List;
import java.util.Map;
import java.util.Map.Entry;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;


public class shiyan3 {

    public static class WsMapper extends Mapper<LongWritable, Text, Text, IntWritable> {
        @Override
        public void map(LongWritable key, Text value, Context context)throws IOException, InterruptedException {
            String[] split = value.toString().split(" ");
            for (String word : split) {
                context.write(new Text(word), new IntWritable(1));
            }
        }
    }

    public static class WsReducer extends Reducer<Text, IntWritable, Text, IntWritable>{

        Map<String,Integer> map=new HashMap<String, Integer>();
        public void reduce(Text key, Iterable<IntWritable> iter,Context conext) throws IOException, InterruptedException {
            int  count=0;
            for (IntWritable wordCount : iter) {
                count+=wordCount.get();
            }
            String name=key.toString();
            map.put(name, count);
        }

        @Override
        public void cleanup(Context context)throws IOException, InterruptedException {

            //这里将map.entrySet()转换成list
            List<Map.Entry<String,Integer>> list=new LinkedList<Map.Entry<String,Integer>>(map.entrySet());
            //通过比较器来实现排序
            Collections.sort(list,new Comparator<Map.Entry<String,Integer>>() {

                //降序排序
                @Override
                public int compare(Entry<String, Integer> arg0,Entry<String, Integer> arg1) {
                    return (int) (arg1.getValue() - arg0.getValue());
                }
            });

            for(int i=0;i<10;i++){
                context.write(new Text(list.get(i).getKey()), new IntWritable(list.get(i).getValue()));
            }
        }
    }
    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        Configuration conf = new Configuration();
        String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
        if (otherArgs.length != 2) {
            System.err.println("输入参数个数为:"+otherArgs.length+",Usage: wordcount <in> <out>");
            System.exit(2);//终止当前正在运行的java虚拟机
        }
        Job job = Job.getInstance(conf, "CleanUpJob");
        job.setJarByClass(shiyan3.class);
        job.setMapperClass(WsMapper.class);
        job.setReducerClass(WsReducer.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
        for(int i = 0; i < otherArgs.length - 1; ++i) {
            FileInputFormat.addInputPath(job, new Path(otherArgs[i]));
        }
        FileOutputFormat.setOutputPath(job, new Path(otherArgs[otherArgs.length - 1]));
        System.exit(job.waitForCompletion(true)?0:1);
    }
}

实验结果

实验报告

 《大数据导论》MapReduce的应用.docx-Hadoop文档类资源-CSDN下载

  • 10
    点赞
  • 51
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 线性表是一种常用的数据结构,用于存储一系列按顺序排列的元素。线性表的实现方式有多种,比如顺序表和链表等。 在进行线性表的单词频率统计时,可以使用哈希表或者红黑树等数据结构来实现。其中,哈希表的查询和插入操作时间复杂度均为O(1),因此在处理大规模数据时,哈希表的效率更高。 如果需要进行数据的排序和查找操作,可以使用排序算法来实现。常见的排序算法有冒泡排序、插入排序、选择排序、快速排序和归并排序等。其中,快速排序和归并排序的时间复杂度均为O(nlogn),因此在处理大规模数据时,这两种算法的效率更高。 当需要在线性表中进行查找操作时,可以使用顺序查找或者二分查找算法。顺序查找的时间复杂度为O(n),而二分查找的时间复杂度为O(logn),因此在处理大规模数据时,二分查找的效率更高。但是,二分查找要求线性表中的元素必须是有序的。 希望这些信息能够对您有所帮助。 ### 回答2: 基于线性表实现单词词频统计与查找可以通过使用数组或链表来实现。在此以使用数组为例进行说明。 首先,我们可以创建一个包含单词和对应词频的结构体,如: ```c struct WordFrequency { char word[50]; int frequency; }; ``` 接下来,我们可以定义一个包含上述结构体的数组,用于存储单词和对应的词频信息,如: ```c struct WordFrequency wordList[1000]; int wordCount = 0; ``` 其中,wordCount用于记录数组中已存储的单词数量。 当需要进行词频统计时,可以遍历文本文件,读取每个单词,并在线性表中进行查找。若找到相同的单词,则将其对应的词频加一;若未找到,则在数组中新增一个结构体来存储该单词及其初始词频。具体代码如下: ```c void wordFrequencyCount(char* filename) { FILE* file = fopen(filename, "r"); char word[50]; while (fscanf(file, "%s", word) != EOF) { int found = 0; for (int i = 0; i < wordCount; i++) { if (strcmp(word, wordList[i].word) == 0) { wordList[i].frequency++; found = 1; break; } } if (!found) { strcpy(wordList[wordCount].word, word); wordList[wordCount].frequency = 1; wordCount++; } } fclose(file); } ``` 此时,wordList中保存了每个不重复单词及对应的词频信息。 当需要查找某个词频时,只需遍历数组进行查找并返回对应的频率信息。具体代码如下: ```c int getFrequency(char* word) { for (int i = 0; i < wordCount; i++) { if (strcmp(word, wordList[i].word) == 0) { return wordList[i].frequency; } } return 0; } ``` 上述方法基于线性表实现了单词词频统计与查找。通过使用数组来存储单词及对应的词频信息,我们可以快速查找并更新词频。当然,也可以使用链表等其他线性表结构来实现相同的功能。 ### 回答3: 基于线性表实现单词词频统计与查找可以使用数组来实现。首先,我们可以将文本中的单词逐一读取出来,然后将其存储在一个数组中。在数组中,每个单词可以与一个整数词频值对应。 对于词频统计,我们可以使用一个哈希表来辅助计数。首先,遍历数组中的每个单词,通过哈希函数将其转换成一个数组下标。然后,在哈希表对应的下标位置的值上加一,表示该单词出现次数。这样就可以实现每个单词词频统计。 对于查找,我们可以遍历数组中的每个单词,与目标单词进行比较。如果找到了目标单词,则返回该单词在数组中的位置;如果没有找到,则返回一个不存在的位置值(如-1)。 基于线性表实现单词词频统计与查找的优势是简单、效率高。由于使用数组作为存储结构,可以直接通过下标来访问或修改数组中的元素,具有快速的读取和更新速度。同时,利用哈希表进行统计可以减少遍历的次数,提高了词频统计的效率。 然而,基于线性表实现单词词频统计与查找也有一些不足之处。首先,使用数组存储所有的单词需要占用较大的内存空间,特别是当文本量较大时。其次,基于哈希表的统计方法可能存在冲突问题,即多个单词映射到同一个哈希表下标的情况,需要额外的处理。因此,在实际应用中还需要根据具体的需求选择合适的算法和数据结构来实现单词词频统计与查找。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

二琳爱吃肉

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值