Hdfs主备切换导致spark应用中断

场景:使用structured streaming消费kafka中数据写入hdfs中

说明:集群有两个namenode,分别为node1,node2。起初node1状态为active,在程序中涉及hdfs路径的地方,写的是hdfs://node1:8020/your path。后来集群中node1为standby状态,node2为active状态,spark应用就会中断,除非将hdfs路径修改为hdfs://node2:8020/your path。这样操作很麻烦,每次node1,node2状态调整都会影响spark程序,那么有没有什么方法可以避免这种操作?

解决:涉及hdfs路径hdfs://node1:8020/your path,可以将node1:8020修改为参数dfs.nameservices的值,比如dfs.nameservices=nameservice1,则此时hdfs路径为hdfs://nameservice1/your path,其中参数dfs.nameservices可以去hdfs-site.xml中查找,或者core-site.xml中参数fs.defaultFS的值。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值