Hadoop环境搭建学习之使用Idea提交Java程序到spark集群(10)

33 篇文章 0 订阅
30 篇文章 0 订阅

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


前言

提示:这里可以添加本文要记录的大概内容:

Hadoop Spark HA环境搭建好了,试着创建程序提交到Spark集群执行简单计算统计


提示:以下是本篇文章正文内容,下面案例可供参考

一、需求分析

需求:单词计数
执行步骤:
1、远程取两个文件
2、获取两个文件内的数据
3、将文件内的数据进行扁平化
4、将相同单词进行分组
5、聚合计算每个单词的个数

二、使用步骤

1.准备环境

资源列表

软件/工具版本
VMwareVMware® Workstation 16 Pro
FinalShellFinalShell 3.9.5.4
IDEAIDEA 2020.1

虚拟机

主机名IP
hadoop01192.168.74.88
hadoop02192.168.74.89
hadoop03192.168.74.90

启动Hadoop HA
启动Spark HA

2.测试数据

编写多个测试数据.txt文件,文件名随意,将文本文件上传至hdfs的/datas目录
以1.txt、2.txt为例
在这里插入图片描述
将测试数据传到hdfs的/input/datas目录
hadoop fs -mkdir /input
hadoop fs -mkdir /input/datas
hadoop fs -put 1.txt /input/datas
hadoop fs -put 2.txt /input/datas

创建结果存储目录/output
hadoop fs -mkdir /output
在这里插入图片描述

3.代码实现

代码如下(示例):

        System.setProperty("HADOOP_USER_NAME", "hadoop");
        //创建链接
        SparkConf conf = new SparkConf()
                .setMaster("spark://hadoop01:7077")
                .setAppName("JavaWordCount")
                .set("spark.cores.max","1")
                .set("spark.executor.memory","512M")
                .set("spark.driver.memory","512M")
                //.setJars(JavaSparkContext.jarOfClass(JavaWordCount.class));
                .setJars(new String[]{("target/WordCount.jar")});
        JavaSparkContext sc = new JavaSparkContext(conf);
        System.out.println("1.读取文件");
        //业务操作
        //1.读取文件
        JavaRDD<String> lines = sc.textFile("hdfs://ns/input/datas");
        System.out.println("1.读取文件,line:"+lines.count());

        //2.拆分单词
        JavaRDD<String> words = lines.flatMap(new FlatMapFunction<String, String>() {
            public Iterator<String> call(String s) throws Exception {
                List<String> list = new ArrayList<String>();
                String[] arr = s.split(" ");
                for (String s1 : arr) {
                    list.add(s1);
                }
                return list.iterator();
            }
        });
        System.out.println("2.拆分单词,words:");

        //3.单词计数
        JavaPairRDD<String, Integer> pairs = words.mapToPair(new PairFunction<String, String, Integer>() {
            public Tuple2<String, Integer> call(String word) throws Exception {
                return new Tuple2<String, Integer>(word, 1);
            }
        });
        System.out.println("3.单词计数");
        //4.单词统计
        JavaPairRDD<String, Integer> wordToCount = pairs.reduceByKey(new Function2<Integer, Integer, Integer>() {
            public Integer call(Integer integer, Integer integer2) throws Exception {
                return integer + integer2;
            }
        });
        System.out.println("4.单词统计");
        //5.数据采集
        List<Tuple2<String, Integer>> arrays = wordToCount.collect();
        System.out.println("数据采集");
        for (Tuple2<String, Integer> array : arrays) {
            System.out.println(array);
        }
        System.out.println("5.数据采集");
        //6.保存输出结果
        //wordToCount.saveAsTextFile("hdfs://ns/output/wordCount/java/JavaWordCount");
        System.out.println("6.保存输出结果");
        //关闭资源
        sc.close();

执行main方法,控制台输出计算结果
在这里插入图片描述

4.Spark集群执行

在这里插入图片描述

5.hdfs输出目录

在这里插入图片描述


总结

记录点点滴滴

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

panda_225400

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值