通过spark操作hive中的数据
在集群(服务器)上整合
步骤
1.如果在spark的bin目录下存在metastore_db或者spark-warehouse文件,将这两个文件删除
2.导入配置文件
1.hive/conf/hive-site.xml
2.hadoop/etc/hadoop/core-site.xml和hdfs-site.xml
将上述三个文件放入spark/conf目录下,这样就整合好了
3.问题
如果遇到以下问题
![在这里插入图片描述](https://img-blog.csdnimg.cn/cdfd0f777b4e48bda3975695df8a9349.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L29udGhlX3dpbmc=,size_16,color_FFFFFF,t_70)
![在这里插入图片描述](https://img-blog.csdnimg.cn/83f0e18131a64c43b806a02e4f0594be.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L29udGhlX3dpbmc=,size_16,color_FFFFFF,t_70)
将spark下的conf目录中的hive-site.xml里引擎的配置改为mr,这样问题就解决了<