通过/spart-submit提交任务时,报WARN scheduler.TaskSchedulerImpl: Initial job has not accepted any resources问题。
且一直重试该操作。
该问题spark集群没有资源可用。
在本机测试情况下,虚拟机给2G的内存,那么spark中可设定为1G,这样就可以成功将任务运行完成。
具体操作:
找到spark下的conf,然后修改spark-env.sh文件
在文件末添加:export SPARK_WORKER_MEMORY=1024m
这样就可以正常执行程序了