1、Spark没有正常启动
2、Spark和Hive版本不匹配
3、资源不足,导致Hive连接Spark客户端超过设定时长
hadoop的resourcemanage起不来?
为什么只有两个节点?
我都hive复杂查询解决了。yarn原来没起来,脚本没有修改,应该在hadoop103启动resourcemanager,start-yarn.sh
我的问题好像不是最上面的三个问题。
1、Spark没有正常启动
2、Spark和Hive版本不匹配
3、资源不足,导致Hive连接Spark客户端超过设定时长
hadoop的resourcemanage起不来?
为什么只有两个节点?
我都hive复杂查询解决了。yarn原来没起来,脚本没有修改,应该在hadoop103启动resourcemanager,start-yarn.sh
我的问题好像不是最上面的三个问题。