1.把hive的配置文件hive-site.xml复制到spark/conf下。
2.启动的时候带上MySQL的连接驱动
Spark-shell命令使用
spark-shell是通过得到sparksession然后调用sql方法执行hive的sql。
cd /app/spark/spark-2.2.0-bin-2.9.0/bin
./spark-shell --master local[3] --jars /app/mysql-connector-java-5.1.46.jar
spark.sql("show tables").show 通过spark-shell查询hive中有哪些表
spark.sql("select * from emp").show通过spark-shell查询hive中的表所有的数据
Spark SQL命令的使用
cd /app/spark/spark-2.2.0-bin-2.9.0/bin
./spark-sql --master local[3] --jars /app/mysql-connector-java-5.1.46.jar
在Spark SQL中可以直接执行SQL操作Hive
查看hive中有哪些表
查看hive的emp表中的数据
spark-sql>select * from emp;
创建一张表到hive中
create table t(key string,value string);