1.在submit中设置
在submit中设置注意后面的 \
--conf "spark.shuffle.blockTransferService=nio" \ 大数据集shuffle的时候,节点之间传输数据时使用netty 改为nio
--conf "spark.debug.maxToStringFields=500" \ 字段的字符串太长了
--conf "spark.sql.broadcastTimeout=1200" \ 广播等待超时时间,单位秒
--conf "spark.executor.extraJavaOptions=-XX:-UseGCOverheadLimit" \ 关闭限制GC的运行时间(默认启用 )
--conf "spark.port.maxRetries=128" \ Spark任务都会绑定一个端口来显示WebUI,默认端口为4040,如果被占用则依次递增+1端口重试,重试次数由参数spark.port.maxRetries=16控制,默认重试16次后就放弃执行