原因:
spark预先编译的hadoop版本为32位的,放在64位的机器上执行会报这个错误,解决办法
办法一:
在spark的conf目录下,在spark-env.sh文件中加入LD_LIBRARY_PATH环境变量LD_LIBRARY_PATH=$HADOOP_HOME/lib/native
办法二、
在 ~/.bashrc 设置一下 export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native
原因:
spark预先编译的hadoop版本为32位的,放在64位的机器上执行会报这个错误,解决办法
办法一:
在spark的conf目录下,在spark-env.sh文件中加入LD_LIBRARY_PATH环境变量LD_LIBRARY_PATH=$HADOOP_HOME/lib/native
办法二、
在 ~/.bashrc 设置一下 export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native