我尝试创建一个独立的PySpark程序,它读取csv并将其存储在hive表中 . 我在配置Spark会话, Session 和上下文对象时遇到问题 . 这是我的代码:
from pyspark import SparkConf, SparkContext
from pyspark.sql import SQLContext, SparkSession
from pyspark.sql.types import *
conf = SparkConf().setAppName("test_import")
sc = SparkContext(conf=conf)
sqlContext = SQLContext(sc)
spark = SparkSession.builder.config(conf=conf)
dfRaw = spark.read.csv("hdfs:/user/..../test.csv",header=False)
dfRaw.createOrReplaceTempView('tempTable')
sqlContext.sql("create table customer.temp as select * from tempTable")
我收到错误:
dfRaw = spark.read.csv(“hdfs:/ user /../ test.csv”,header = False)AttributeError:'Builder'对象没有属性'read'
为了使用read.csv命令,哪种配置spark会话对象的正确方法?另外,有人可以解释Session,Context和Conderence对象之间的差异吗?