其实这个时候应该继续学习hadoop的,但是猛然发现目前的需求是spark,不过spark可以基于hadoop运行。
目前使用的spark版本是:spark-1.6.2-bin-hadoop2.6
运行Spark简单程序的思路是现在IDE上导入spark API包并写好scala程序,然后像写Hadoop MapReduce程序一样,导出做成jar包,接下来用spark-submit提交jar包,就可以运行了。
- WordCount程序
结合官网上的示例,我们先分析一下WordCount程序:
object SparkWordCount {
//设置输入文件位置,spark读取文件是在SPARK_HOME 下读取的
val filePath="test.text"
//设置spark配置信息
val conf=new SparkConf().setAppName("WordCount")
val sparkContext=new SparkContext(conf)
//sparkContext返回一个RDD[String],cache()过程是将这个返回的RDD缓存下来
val