文件名:WordCount.scala
import org.apache.spark.SparkContext._
import org.apache.spark.SparkContext
object WordCount{
def main(args:Array[String]){val sc =new SparkContext("local","master") //SparkContext有四个参数,第一个参数是spark master的位置(spark://master:7077),在本地环境下可以用local表示;第二 //个参数是程序名称,自定义一个字符串即可;第三个参数是spark安装目录;第四个是jar包存放位置。对与spark on yarn 而 //言,前两个参数尤为重要。在本程序中后两个参数不写,这两个参数可以在运行命令中添加。
val inputfile = sc.textFile("hdfs://master:9000/user/artical.txt")
val count = inputfile.flatMap(line=>line.split(" ")).map(word=>(word,1)).reduceByKey(_&