软件环境
hadoop2.7.6
spark-2.3.0
scala-2.11.12
hive-2.1.1
SparkSQL命令行模式可以直接连接Hive的
将hive目录中的 D:\Soft\apache-hive-2.1.1-bin\conf\hive-site.xml 文件拷贝贝到 D:\Soft\spark\conf spark目录中
D:\soft\spark\jars 目录中放 mysql-connector-java-5.1.30.jar 包
Java程序SparkSQL连接Hive
1)将hive目录中的 D:\Soft\apache-hive-2.1.1-bin\conf\hive-site.xml 文件拷贝到 \src\main\resources 资源目录中
2)添加依赖
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.11</artifactId>
<version>2.3.1</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>mysql</gr