1.在idea的spark项目的pom.xml中添加依赖
<!-- spark整合hive的依赖,即可以读取hive的源数据库,使用hive的sql --> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-hive_2.12</artifactId> <version>3.1.3</version> </dependency>
2.新建立一个测试类 objet类
开启hive的支持 .enableHiveSupport()
如何链接到hive 在项目中
在idea spark的项目 resources中,添加hive-site.xml
配置hive的元数据服务地址
<configuration> <property> <name>hive.metastore.uris</name> <value>thrift://doit41:9083</value> </property> </configuration> <!-- hive的元数据服务.在hive的conf的hive-site .xml 文件下 <name>hive.metastore.uris</name> <value>thrift://doit41:9083</value&g