1、spark对应的环境
http://spark.apache.org/documentation.html
2、找spark和hive版本
3、找hadoop版本
进入hive官网https://hive.apache.org/downloads.html,可以看到hive对应的hadoop版本
1、spark对应的环境
http://spark.apache.org/documentation.html
2、找spark和hive版本
3、找hadoop版本
进入hive官网https://hive.apache.org/downloads.html,可以看到hive对应的hadoop版本