不管是on-hive还是on-spark,都需要配置hive得metastore服务
①配置hive
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>localhost</value>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://localhost:9083</value>
</property>
启动:
nohup hive --service metastore &
nohup hive --service hiveserver2 &
spark-on-hive:
spark中如果不配置hive环境是无法读取hive表数据的,如下配置:
①如果你的hive元数据存在mysql,把mysql-connector-java-8.0.18.jar复制到spark的jars中
②在spark的spark-env.sh中添加:
export HIVE_HOME=/root/bigdata/hive-2.3.6
export HIVE_CONF_DIR=${HIVE_HOME}/conf
e