遇到问题---spark on k8s部分spark_home的conf配置不生效

12 篇文章 406 订阅 ¥59.90 ¥99.00
在Spark运行于Kubernetes集群时,遇到了部分Pod无法应用`spark-defaults.conf`中配置的问题,如S3操作协议未生效及日志打印的`log4j.properties`未读取。解决方案是通过在启动命令中显式指定配置参数,如`--conf spark.hadoop.fs.s3a.protocol=http`来设置S3协议。然而,发现通过`spark.executor.extraJavaOptions`设定的环境变量无法影响executor,目前只能通过修改executor Dockerfile的`endpoint.sh`文件来设定相关参数。
摘要由CSDN通过智能技术生成

遇到的问题

部分pod 执行s3操作和日志打印debug失败,没有读取配置的log4j.properties文件和spark-defaults.conf的配置。

比如指定s3的协议,已经在spark-defaults.conf中指定配置如下:

spark.driver.extraJavaOptions -Dcom.amazonaws.services.s3.enableV4
spark.executor.extraJavaOptions -Dcom.amazonaws.services.s3.enableV4

实际executor的pod执行时 并未加载:

+ CMD=(${JAVA_HOME}/bin/java "${SPARK_EXECUTOR_JAVA_OPTS[@]}" -Xms$SPARK_EXECUTOR_MEMORY -Xmx$SPARK_EXECUTOR_MEMORY -cp "$SPARK_CLASSPATH" org.apache.spark.executor.CoarseGrainedExecutorBackend --driver-url $SPARK_DRIVER_URL --executor-id $SPARK_EXECUTOR_ID --cores $SPARK_EXECUTOR_CORES --app-id $SPARK_APPLICATION_ID --hostname $SPARK_EXECUTOR_POD_IP)
+ exec /usr/bin/tini -s -- /usr/
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

张小凡vip

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值