hadoop版本和linux版本不一样,hadoop里需要的libhadoop.so版本不一致导致问题及解决办法...

本文详细讲述了在Hadoop部署中遇到本地库版本不匹配问题的解决方案,包括设置调试信息、检查glibc版本、升级glibc并配置编译过程。重点在于如何通过升级系统glibc来修复libhadoop.so加载失败的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

$HADOOP_HOME/lib/native/Linux-amd64-64   (64位操作系统)

$HADOOP_HOME/lib/native/Linux-i386-32   (32位操作系统)

文件夹中的libhadoop.so文件,就是hadoop的本地。

问题如下

如果本地库不存在,或者本地库与当前操作系统的版本不一致的时候,会报下面的错误:

WARN org.apache.hadoop.util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

error libhadoop.so  /lib64/libc.so.6 required (libc 2.6)    /usr/local/hadoop/lib/native/Linux-amd64-64

说明系统中的glibc的版本和libhadoop.so需要的版本不一致导致

解决办法如下

1、增加调试信息设置

$ export HADOOP_ROOT_LOGGER=DEBUG,console

2、查看系统的libc版本

# ll /lib64/libc.so.6

lrwxrwxrwx 1 root root 11 Apr 24 16:49 /lib64/libc.so.6 -> libc-2.5.so

系统中的版本为2.5

3、将系统中的glibc升级为2.9

下载glibc

wget  http://ftp.gnu.org/gnu/glibc/glibc-2.9.tar.bz2

下载glibc-linuxthreads

wget http://ftp.gnu.org/gnu/glibc/glibc-linuxthreads-2.5.tar.bz2

解压

$tar -jxvf glibc-2.9.tar.bz2

$cd glibc-2.9

$tar -jxvf ../glibc-linuxthreads-2.5.tar.bz2

$cd ..

$export CFLAGS="-g -O2"

$./glibc-2.7/configure --prefix=/usr --disable-profile --enable-add-ons --with-headers=/usr/include --with-binutils=/usr/bin

$make

#make install

安装编译过程中需要注意三点:

1、要将glibc-linuxthreads解压到glibc目录下。

2、不能在glibc当前目录下运行configure。

3、加上优化开关,export CFLAGS="-g -O2",否则会出现错误

安装完后,可以查看ls -l /lib/libc.so.6已升级

lrwxrwxrwx 1 root root 11 Apr 24 16:49 /lib64/libc.so.6 -> libc-2.9.so

4、测试本地库是否升级

$ export HADOOP_ROOT_LOGGER=DEBUG,console

可以看到将glibc升级后不再报错,已经成功加载本地库

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值