spark-万物之源WordCount(四)

Spark实现WordCount的N种方法


  大家好啊,这里就不自我介绍了,我们说一下WordCount,也就是词频。大家可能在各种渠道学习数据处理都会是WordCount首当其冲,为什么呢?因为WordCount简单。但是可以很好的形容数据处理和数据统计。今天我们也跟风的讲一讲WordCount,但是呢?我们不是泛泛的讲讲,我们是抱着系统学习的态度开始的。因为实现WordCount的方法有很多,每一种方法都是不同的算子,都会让你有不同的收获。那就开始了哈。

一、数据源。

[root@host juana]# touch data.txt
[root@host juana]# vim data.txt
liubei,sunshangxiang,zhaoyun
minyue,guanyu,juyoujin,nakelulu
liubei,libai
libai,guanyu,bailishouyue

二、具体实现。

1、方法1

  这是最原始的方法。

object WordCount {
   
  def main(args: Array[String]): Unit = {
   
	// 配置spark环境
    val conf = new SparkConf().setMaster("local[*]").setAppName("wc")
	// 新建SparkContext
    val sc = new SparkContext(conf)
    //读取文件
    sc.textFile("data/data.txt")
    // 扁平化处理
      .flatMap(line=>{
   line.split(",")})
     // 逐个击破
      .map(x=>(x,1)).reduceByKey(_+_)
     // 逐个输出
      .foreach(println)
     // 关闭环境
    sc.stop()
  }
}

output

(liubei,2)
(zhaoyun,1)
(sunshangxiang,1)
(nakelulu,1)
(libai,2)
(juyoujin,1)
(guanyu,2)
(bailishouyue,1)
(minyue,1)

2、方法2

object WordCount {
   
  def main(args: Array[String]): Unit = {
   
	// 配置spark环境
    val conf = new SparkConf().setMaster("local[*]").setAppName("wc")
	// 新建SparkContext
    val sc = new SparkContext(conf)
    //读取文件
    sc.textFile("data/data.txt")
    .flatMap(line => {
   line.split(" ")})
    .map(data => (data, 1))
    .groupBy(_._1)
    .map(data=>(data._1, data._2.size))
    .foreach(println)
    sc.stop()

output

(liubei,2)
(zhaoyun,1)
(sunshangxiang,1)
(nakelulu,1)
(libai,2)
(juyoujin,1)
(guanyu,2)
(bailishouyue,1)
(minyue,1)

3、方法3

object WordCount {
   
  def main(args: Array[String]): Unit = {
   
	// 配置spark环境
    val conf = new SparkConf().setMaster("local[*]").setAppName("wc")
	// 新建SparkContext
    val sc = new SparkContext(conf)
    //读取文件
    sc.textFile("data/data.txt")
    .flatMap(line => {
   line.split(" ")})
	.map(data 
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
`spark-submit`是Spark 提交应用程序的命令行工具,用于将 Spark 应用程序提交到集群中运行。使用该命令,可以在 Spark 集群上启动一个应用程序,不论是在本地模式还是在一个真实的集群上。 `spark-submit`命令语法如下: ``` ./bin/spark-submit \ --class <main-class> \ --master <master-url> \ --deploy-mode <deploy-mode> \ --conf <key>=<value> \ ... # other options <application-jar> \ [application-arguments] ``` 其中,参数说明如下: - `--class`:Spark 应用程序的入口类。 - `--master`:Spark 集群的 URL。 - `--deploy-mode`:应用程序的运行模式,包括 `client` 模式和 `cluster` 模式。 - `--conf`:设置 Spark 配置属性。 - `application-jar`:打包好的应用程序 JAR 文件路径。 - `application-arguments`:应用程序的命令行参数。 下面是一个使用 `spark-submit` 命令提交一个 Spark 应用程序的示例: ``` ./bin/spark-submit \ --class com.example.WordCount \ --master spark://localhost:7077 \ --deploy-mode client \ --executor-memory 2G \ --total-executor-cores 4 \ app.jar \ data.txt ``` 在这个示例中,我们将 `com.example.WordCount` 类作为入口类,将应用程序提交到 Spark 集群的地址为 `spark://localhost:7077`,使用 `client` 模式运行应用程序,设置每个 Executor 的内存为 2GB,总共使用 4 个 Executor,应用程序的 JAR 文件为 `app.jar`,并将 `data.txt` 文件作为应用程序的命令行参数。 总之,`spark-submit` 是 Spark 提交应用程序的重要命令行工具,通过学习和使用该工具,可以更方便地将 Spark 应用程序部署到集群中运行。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值