记录一下spark sql远程连接hive,进行sql操作的过程。
1、把远程端的hive-site.xml文件放在idea的resources目录下
注意这里要改成远程要访问的ip地址
2、引入mysql驱动包,因为spark sql其实是访问的是存储hive元数据的库,我的是mysql
crt+alt+shift+s打开导包界面,点击“+” > Library > Java 选择mysql驱动包
如果没有mysql驱动包会报这样的错误:
java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient;