SparkSQL问题汇总

在使用Spark 3.0.0版本进行SparkSQL实验时,遇到与旧版教程不兼容的问题,包括SQLContext依赖包缺失、创建SparkSession时的错误、DataFrame类型的找不到以及读取json文件的异常。解决方案包括添加相关依赖、使用toSparkContext方法转化、用Dataset替换DataFrame以及在读取json时明确指定格式。
摘要由CSDN通过智能技术生成

实验使用环境为spark-3.0.0-preview2,教程观看的版本为spark1.6,spark2.0开始对sql进行改进,用sparksession实现hivecontext和sqlcontext统一,合并dataframe和datasets等,按照老的教程会引起问题。

一. SQLContext报红,找不到依赖包。
解决办法:在pom中添加依赖:

<!--导入spark sql依赖-->
<dependency>
   <groupId>org.apache.spark</groupId>
   <artifactId>spark-sql_2.12</artifactId>
   <version>3.0.0-preview2</version>
</dependency>
<dependency>
   <groupId>org.apache.spark</groupId>
   <artifactId>spark-hive_2.11</artifactId>
   <version>2.4.6</version>
</dependency>

二. 生成sparkSession实例时提示Required type:SparkContext,Provided:JavaSparkContext
解决办法:通过toSparkContext方法转化:

JavaSparkContext scc = new JavaSparkContext(conf);
SparkContext sc = JavaSparkContext.toSparkContext(scc);

三. 没有DataFrame类型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值