Spark本地环境实现wordCount单词计数

注:图片如果损坏,点击文章链接:https://www.toutiao.com/i6814778610788860424/

编写类似MapReduce的案例-单词统计WordCount

要统计的文件为Spark的README.md文件

Spark本地环境实现wordCount单词计数

 

分析逻辑:

1. 读取文件,单词之间用空格分割

2. 将文件里单词分成一个一个单词

3. 一个单词,计数为1,采用二元组计数word ->(word,1)

4. 聚合统计每个单词出现的次数

RDD的操作

Spark本地环境实现wordCount单词计数

 

1.读取文件:

sc.textFile("file:///opt/modules/spark/README.md")

注意:textFile里面的路径,如果没有指定schema,那么默认的话是从HDFS文件系统读取数据,如果不加file://就是/opt/modules/spark/README.md的路径,是从HDFS对应目录下读取

接收变量是res0

Spark本地环境实现wordCount单词计数

 

res0方法查看

Spark本地环境实现wordCount单词计数

 

可以用一个变量接收

Spark本地环境实现wordCount单词计数

 

rdd.count-->统计RDD里有多少条数据

Spark本地环境实现wordCount单词计数

 

rdd.first--> 取RDD的第一条数据

Spark本地环境实现wordCount单词计数

 

可以对比源文件看到第一条数据

Spark本地环境实现wordCount单词计数

 

rdd.take(10)--> 取RDD的前10条数据,也可以对比源文件查看

Spark本地环境实现wordCount单词计数

 

2. 将文件中的数据分成一个一个的单词

Spark本地环境实现wordCount单词计数

 

map和flatMap返回类型不一致,返回结果类型是RDD[String]和RDD[Array[String]]

Spark本地环境实现wordCount单词计数

 

可以使用collect方法,查看结果

变量名

Spark本地环境实现wordCount单词计数

 

collect方法

Spark本地环境实现wordCount单词计数

 

map和flatMap返回结果的不同之处:flatMap会进行扁平化操作

mapRDD = rdd.map(line => line.split(" "))

第一个元素:Array("#","Apache","spark")

Spark本地环境实现wordCount单词计数

 

第三个元素:Array("Spark","is")

Spark本地环境实现wordCount单词计数

 

flatmapRDD = rdd.flatMap(line => line.split(" "))

第一个元素:"#"

Spark本地环境实现wordCount单词计数

 

所以我们选择flatMap,而不是map

val flatMapRDD = rdd.flatMap(line => line.split(" "))

//flatMapRDD: org.apache.spark.rdd.RDD[String]

去除空的字符串的操作

flatMapRDD.filter(word => word.nonEmpty)

Spark本地环境实现wordCount单词计数

 

3. 将每个单词进行计数

val mapRDD = flatMapRDD.map(word => (word,1))

Spark本地环境实现wordCount单词计数

 

返回类型//mapRDD: org.apache.spark.rdd.RDD[(String, Int)]

Spark本地环境实现wordCount单词计数

 

4.将相同的单词放在一起进行value值得聚合

val reduceRDD = mapRDD.reduceByKey((a,b) => a + b)

//reduceRDD: org.apache.spark.rdd.RDD[(String, Int)]

Spark本地环境实现wordCount单词计数

 

查看对比下(reduceByKey前后两个变量的collect)

Spark本地环境实现wordCount单词计数

 

链式编程写法:

val result = sc.textFile("file:///opt/modules/o2o23/spark/README.md").flatMap(line => line.split(" ")).filter(word => word.nonEmpty).map(word => (word,1)).reduceByKey((a,b) => a + b).collect

Spark本地环境实现wordCount单词计数

 

链式编程简化写法:

val result1 = sc.textFile("file:///opt/modules/o2o23/spark/README.md").flatMap(_.split(" ")).filter(_.nonEmpty).map((_,1)).reduceByKey(_+_).collect

Spark本地环境实现wordCount单词计数

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的码资涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些码资特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资都能为你提供宝贵的学习和实践机会。通过学习和运行这些码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些码资进行课程实践、课外项目或毕业设计。通过分析和运行码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保码资的可运行性和易用性,特别注意了以下几点:首先,每份码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些码资,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值