利用Scala编写Wordcount并在spark框架下运行

本文档展示了如何使用Scala编写WordCount程序,并在Spark框架下运行。代码导入了必要的Spark库,定义了一个WordCount对象。完成后,将程序打包为jar文件,并在命令行通过`spark-submit`命令在Spark集群上执行。
摘要由CSDN通过智能技术生成

文件名:WordCount.scala

import org.apache.spark.SparkContext._

import org.apache.spark.SparkContext

  object WordCount{

    def main(args:Array[String]){
      val sc =new SparkContext("local","master")    //SparkContext有四个参数,第一个参数是spark master的位置(spark://master:7077),在本地环境下可以用local表示;第二                                                                                           //个参数是程序名称,自定义一个字符串即可;第三个参数是spark安装目录;第四个是jar包存放位置。对与spark on yarn 而                                                                                                //言,前两个参数尤为重要。在本程序中后两个参数不写,这两个参数可以在运行命令中添加。
      val inputfile = sc.textFile("hdfs://master:9000/user/artical.txt")
      val count = inputfile.flatMap(line=>line.split(" ")).map(word=>(word,1)).reduceByKey(_&
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值