Spark:spark初探wordCount

一、准备工作

  • scala-sdk安装
    下载地址:scala-2.11.2,下载完成配置SCALA_HOME

  • maven坐标

    	<properties>
        	<spark.version>2.4.3</spark.version>
        	<scala.version>2.11.2</scala.version>
    	</properties>
    <!-- 导入spark的依赖 -->
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.11</artifactId>
            <version>${spark.version}</version>
        </dependency>
        <!-- 导入spark-sql的依赖 -->
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.11</artifactId>
            <version>${spark.version}</version>
        </dependency>
        <!-- 导入spark插件的依赖 -->
        <build>
        <plugins>
            <plugin>
                <groupId>org.scala-tools</groupId>
                <artifactId>maven-scala-plugin</artifactId>
                <version>2.15.1</version>
                <executions>
                    <execution>
                        <goals>
                            <goal>compile</goal>
                            <goal>testCompile</goal>
                        </goals>
                    </execution>
                </executions>
                <!--<configuration>
                    <recompileMode>incremental</recompileMode>
                    <scalaVersion>${scala.version}</scalaVersion>
                    <launchers>
                        <launcher>
                            <id>app</id>
                            <mainClass>com.staryea.scala.ScalaApplication</mainClass>
                            <args>
                                <arg>-deprecation</arg>
                            </args>
                            <jvmArgs>
                                <jvmArg>-Xms256m</jvmArg>
                                <jvmArg>-Xmx2048m</jvmArg>
                            </jvmArgs>
                        </launcher>
                    </launchers>
                </configuration>-->
            </plugin>
        </plugins>
    </build>
    
  • Idea插件下载scala

      也上版本亲测可用
    

二、具体实例

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**
  * @author: hs
  * @Date: 2019/11/5 11:31
  * @Description:
  */
object SparkTest {

  def main(args: Array[String]): Unit = {
    //创建SparkConf对象,设置SparkConf的运行环境
    val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("WordCount")
    //创建Spark上下文对象
    val sc: SparkContext = new SparkContext(conf)
    val lines: RDD[String] = sc.textFile("in/word.txt")
    val word: RDD[String] = lines.flatMap(_.split(" "))
    val one: RDD[(String, Int)] = word.map((_, 1))
    val sum: RDD[(String, Int)] = one.reduceByKey(_ + _)
    sum.collect().filter(_._2 > 1).map(s => s._2).foreach(println(_))
  }
}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值