CDH6.2配置spark.yarn.jars目录

按照官网的文档采用以下操作即可:

  • 进入CM界面
  • 选择spark服务
  • 配置 搜索spark-defaults.conf
  • 添加spark.yarn.jars=hdfs://ns1/user/spark/jars
  • 部署客户端并重启

但实际重启后发现节点上的配置文件依然是默认属性,没有分发覆盖,具体还没找到解决办法。

暂时采用软链的方式,如果不得已在CM界面修改了配置并部署,则需要重新创建软链:

创建外部配置文件vi /data/common/conf/spark/spark-defaults.conf

# 默认配置
...
...

# yarn运行依赖jar
spark.yarn.jars=hdfs://ns1/user/spark/jars/spark/*,hdfs://ns1/user/spark/jars/hive/*,hdfs://ns1/user/spark/jars/dongao/*
# 编码问题
spark.driver.extraJavaOptions=-Dfile.encoding=utf-8
spark.executor.extraJavaOptions=-Dfile.encoding=utf-8

创建软链:

ln -s /data/common/conf/spark/spark-defaults.conf /opt/cloudera/parcels/CDH-6.2.0-1.cdh6.2.0.p0.967373/lib/spark/conf/spark-defaults.conf

线索(20190826 - 待验证)

在元数据

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值