1 spark集群在执行任务时出现了: 2 原因:这是因为默认分配的内存过大(1024M) 3 解决方法: 在conf/spark-env.sh下添加export SPARK_WORKER_MEMORY=512和export SPARK_DAEMON_MEMORY=256 转载于:https://www.cnblogs.com/t0404/p/10290931.html