spark on hive 的部署
1.把hive -site.xml文件拷贝到安装spark 目录下conf里(注意,要重启spark集群生效)
2.启动hive服务 hive --service metastore
3.自己测试spark-shell 如果不行的话吧mysql的注册驱动包放到spark/lib下
在本地测试跑
1.把hive-site.xml文件拷在resource(idea)
2.把hdfs-site.xml文件拷在resource(idea)
3.注意添加hadoop的依赖完全可以跑