SparkSession是Spark2.0引入的新的概念
spark的早期版本中SparkContext是spark的主要切入点,由于RDD主要是API
我们通过Sparkcontext来创建RDD,对于每个API我们都需要不同的context
例如,Streaming==>StreamingContext,
spl==>sqlContext,
hive==>hiveContext
单数随着DataSet和DataFrame的API逐渐成为表准的API,就需要为他们建立新的额接入点
SparkSession封装了SparkConf,SparkContext和SQLContext,为了向后兼容,SQLContext和HiveContext也被封装了起来.
SpakrSeseion实质上是SQLContext和HiveContext的组合,(未来还有可能加上StreamingContext)
所以SQLContext和HiveContext可用的API在SparkSession上同样是可以使用的,
SparkSeesion内部封装了sparkContext,所以计算实际上的还是有sparkContext完成的!
SparkSession和SparkContext的来时今生
最新推荐文章于 2022-12-02 18:04:02 发布