[Apache Spark大数据分析入门(一)(http://www.csdn.net/article/2015-11-25/2826324)
spark 笔记 5: SparkContext,SparkConf
# 创建textFileRDD
val textFile = sc.textFile("README.md")
textFile.first() #获取textFile RDD的第一个元素
res3:String = # Apache Spark
# 筛选出包括Spark关键字的RDD然后进行行计数
val linesWithSpark = textFile.filter(line => line.contains("Spark"))
linesWithSpark.count()
res10:Long