IDEA中使用SparkSQL读写Hive
添加依赖
libraryDependencies ++= Seq("org.apache.spark" %% "spark-core" % "2.2.0",
"org.apache.spark" %% "spark-sql" % "2.2.0",
"org.apache.spark" %% "spark-sql" % "2.2.0",
"com.databricks" %% "spark-csv" % "1.5.0",
"org.apache.spark" %% "spark-hive" % "2.2.0",
"mysql" % "mysql-connector-java" % "8.0.15")
复制hive-site.xml
复制hive-site.xml文件放在IDEA工程下的resources目录下,记录了元数据的地址,如果不添加这个配置,SparkSQL将走默认的配置路线,在项目本地创建一个spark-warehouse文件夹来放置我们的元数据
代码实例
package doc
import java.io.File
import

本文介绍了在IDEA中使用SparkSQL进行Hive数据读写时的操作步骤,包括添加hive-site.xml依赖,以及遇到如'/hive/tmp'不存在、版本不匹配和日志目录创建失败等异常的解决办法。
最低0.47元/天 解锁文章
1379

被折叠的 条评论
为什么被折叠?



