Spark SQL上下文创建与测试环境搭建
版权声明:本文为博主原创文章,未经博主允许不得转载。
手动码字不易,请大家尊重劳动成果,谢谢
Spark SQL上下文创建
这篇文章主要介绍Spark SQL,因此默认各位已经有一个搭建好的Spark开发环境了。
需要先引入和spark版本一致的spark-sql包
如果我们要在代码中使用Spark SQL,首先我们要创建操作Spark SQL的上下文:
1、Spark 2.0之前使用Spark SQL需要创建SQLContext对象
val sc: SparkContext // An existing SparkContext.
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
// this is used to implicitly convert an RDD to a DataFrame.