
1.使用命令去跑SparkSQL出现这个问题
[root@bigdata01 ~]# hive --service metastore
[root@bigdata01 spark-2.1.1-bin-hadoop2.7]# bin/spark-sql --master yarn-client --executor-memory 80g --conf spark.sql.warehouse.dir=hdfs://bigdata01.hzjs.co:8020/user/sparksql --conf spark.driver.maxResultSize=10g
17/08/10 09:10:19 INFO yarn.Client: Application report for application_1502172637456_0022 (state: ACCEPTED)
17/08/10 09:10:20 INFO yarn.Client: Application report for application_1502172637456_0022 (state: ACCEPTED)
17/08/10 09:10:22 INFO yarn.Client: Application report for application_1502172637456_0022 (state: ACCEPTED)
17/08/10 09:10:23 INFO yarn.Client: A
解决SparkSQL内存不足导致的应用挂起问题
本文介绍了在运行SparkSQL时遇到应用程序挂起的问题,原因是内存不足。分析发现之前的一个SparkSQL任务虽然被用户用ctrl+c终止,但实际上仍处于等待接受状态,占用了大量磁盘空间。通过检查Spark缓存目录和使用YARN命令杀死应用,成功解决了此问题。
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



