val rdd = sc.textFile("hdfs://mycluster/user/bpf/sparkApp/wordcount/input")
val wordcount = rdd.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)
这样得到的结果并没有按照某种规则排序
按照value值进行降序。(出现次数多的在前)
思路:key value反转,按key排序,再反转回来
val sortWords = wordcount.map(x => (x._2,x._1)).sortByKey(false).map(x => (x._2,x._1))
可以通过sortWords.saveAsTextFile(” ———”)存储到文件系统中
如果需要取前N个,可以使用sortWords.take(N)来获得