1、Spark没有正常启动
2、Spark和Hive版本不匹配
3、资源不足,导致Hive连接Spark客户端超过设定时长
hadoop的resourcemanage起不来?
为什么只有两个节点?

我都hive复杂查询解决了。yarn原来没起来,脚本没有修改,应该在hadoop103启动resourcemanager,start-yarn.sh
我的问题好像不是最上面的三个问题。
1、Spark没有正常启动
2、Spark和Hive版本不匹配
3、资源不足,导致Hive连接Spark客户端超过设定时长
hadoop的resourcemanage起不来?
为什么只有两个节点?

我都hive复杂查询解决了。yarn原来没起来,脚本没有修改,应该在hadoop103启动resourcemanager,start-yarn.sh
我的问题好像不是最上面的三个问题。
2791
802
7827
9604
2703
2957
2556
5755
1288
1万+

被折叠的 条评论
为什么被折叠?