spark提示 Unable to load native-hadoop lib

spark在提交任务的时候,也会跟hadoop一样,报这个异常。

前提是hadoop/lib/native中已经有那些包了,然后把hadoop/lib/native加到环境变量LD_LIBRARY_PATH中。

在~/.bashrc中加入如下代码,为保险起见,在每个spark节点都加:

export LD_LIBRARY_PATH=/home/bigdata/apps/hadoop-2.6.0-cdh5.5.2/lib/native/:$LD_LIBRARY_PATH

source ~/.bashrc

参考:spark加载hadoop本地库的时候出现不能加载的情况要怎么解决呢?

 

转载于:https://my.oschina.net/cjun/blog/662763

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值