pyspark.SparkConf()
是对spark应用进行设置的类
pyspark.SparkContext()
是spark应用的入口,也可以称为驱动
from pyspark import SparkConf
from pyspark import SparkContext
conf=SparkConf().setAppName(“miniProject”).setMaster(“local[*]”)
sc=SparkContext.getOrCreate(conf)
rawUserData = sc.textFile(‘file:///F:/66.txt’)
#SparkContext.textFile(name, minPartitions=None, use_unicode=True)
#从hdfs上,从本地等读取txt文件,并转换成RDD