创建sc,spark的编写都是从SparkContext开始的
import org.apache.spark.{SparkConf,SparkC ontext}
val sc = new SparkContext("local","testRDD")
从文件中获取数据
val file = sc.textFile("/spark/hello.txt")
已经存在的Scala集合
val array = Array(1,2,3,4)
val rdd = sc.parallelize(array)