因为hive底层用的执行引擎是MapReduce,所以导致了运行起来非常慢,所以我们要更换执行引擎,就有了hive on spark,基于hive的基础上将执行引擎换成spark
版本:hive 3.1.2
spark3.0.0
需要配置的信息
在spark的配置文件spark-defaults.conf中
spark.master yarn
spark.eventLog.enabled true
spark.eventLog.dir hdfs://hadoop102:8020/spark-history
spark.executor.memory 1g
spark.driver.memory 1g
在hive所在的节点上配置spark的环境变量,保证hive和spark是在同一台机器上的
然后增加hive的配置信息
<!--Spark依赖位置-->
<property