一、内嵌的Hive
若使用Spark内嵌的Hive,直接使用即可,什么都不需要做(在实际生产活动中,很少会使用这一模式)
二、外部的Hive
步骤:
- 将Hive中conf/下的hive-site.xml拷贝到Spark的conf/目录下;
- 把Mysql的驱动copy到jars/目录下;
- 如果访问不到hdfs,则将core-site.xml和hdfs-site.xml拷贝到conf/目录下;
- 重启spark-shell;
可以查看到数据库及表,则表明spark-shell连接到外部已部署好的Hive。
三、运行Spark beeline
步骤:
- 将Hive中conf/下的hive-site.xml拷贝到Spark-local模式下的conf/目录下;
cp /opt/software/hive-2.3.3/conf/hive-site.xml /opt/software/spark-local/conf/
- 把Mysql的驱动copy到jars/目录下;
cp /opt/software/hive-2.3.3/lib/mysql-connector-java-5.1.49.jar /opt/software/spark-local/jars/
- 如果访问不到hdfs,则将core-site.xm