1.使用内置的hive【当前hive 1.2.1】
注意:如果发现master节点有metastore_db出现,删除,然后启动客户端配置hdfs路径。
bin/spark-shell --master spark://master:7077 --conf spark.sql.warehouse.dir=hdfs://master:9000/spark_warehouse
将spark的数据仓库的路径配置到HDFS上,配置只需要在第一次启动时配置。
2.使用外置的hive
1)直接将hive conf 目录下的hive-site.xml文件软连接到spark的conf目录下【该文件只需要配置到master节点】。