centos单机安装Hadoop2.6

本文档详细介绍了如何在CentOS上单机安装Hadoop2.6,包括配置core-site.xml、hdfs-site.xml,设置主机名和hosts文件,以及开启iptables服务,允许特定端口访问。在安装过程中需要注意描述标签不能使用中文,并提供了解决Hadoop加载本地库失败的错误处理方案。安装完成后,可以通过指定IP地址访问Namenode、Yarn和Cluster的Web界面进行验证。
摘要由CSDN通过智能技术生成
总体上可以参考以下博文,Reference:

http://blog.csdn.net/woshisunxiangfu/article/details/44026207

伪分布式则可以参考:

http://blog.csdn.net/xin_jmail/article/details/40556267


但有些小地方需要补上:
1)

配置core-site.xml、hdfs-site.xml时,<description>不能用中文


2)

hostname -f
vi /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4 <host>
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
<ip> <host>
hostname -f


3)
服务器端开通8088(yarn)和50070(namenode)端口
/sbin/iptables -I INPUT -p tcp --dport 8088 -j ACCEPT
/etc/init.d/iptables save

service iptables restart


/sbin/iptables -I INPUT -p tcp --dport 50070 -j ACCEPT
/etc/init.d/iptables save
service iptables restart


4)
启动验证jps时,没看到Master,不过貌似也可以;

测试时用服务器端的IP,如 http://192.168.22.250:8099/ (原文是hostname,http://datanode-4:8099/)

效果>



重启服务器后,重启Hadoop流程:

cd /root/hadoop2.6

sbin/start-dfs.sh

sbin/start-yarn.sh

验证:http://192.168.22.250:8099/cluster


----------------------------------

伪分布式综合:


cd /appl/hadoop-2.7.0/etc/hadoop

yarn-env.sh

export JAVA_HOME=/appl/jdk1.7.0_80
...
hadoop-env.sh
export JAVA_HOME=/appl/jdk1.7.0_80
...
yarn-site.xml
<property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
</property>
mapred-site.xml
<property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
</property>
hdfs-site.xml
<property>
             <name>dfs.repliacation</name>
             <value>0</value>
</property>
core-site.xml
	<property>
             <name>fs.defaultFS</name>
             <value>hdfs://localhost:9000</value>
         </property>
         <property>
           <name>hadoop.tmp.dir</name>
           <value>/appl/hadoop-2.7.0/tmp</value> 
       </property>
vi /etc/profile
export JAVA_HOME=/appl/jdk1.7.0_80
export HADOOP_HOME=/appl/hadoop-2.7.0
export HADOOP_ROOT_LOGGER=INFO,console
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
...
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:...
export MASTER='local-cluster[1,1,1024]'
source /etc/profile

ssh设置
网络端口开通(如8088、50070)

sh start-dfs.sh
sh start-yarn.sh
jps
[root@centos1 ~]# jps
4575 SecondaryNameNode
4857 NodeManager
4373 DataNode
4755 ResourceManager
5187 Jps
4276 NameNode

Web验证-
Namenode - http://192.168.56.250:50070/ 
Yarn - http://192.168.56.250:8088/
Cluster - http://192.168.56.250:8088/cluster


----------------------------------

错误处理

Q:  WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable

A: 开启调试:

  export HADOOP_ROOT_LOGGER=DEBUG,console

  hadoop fs -text /mk/test/hadoop.log

  见真正错误信息:Failed to load native-hadoop with error: ... /lib/libc.so.6: version `GLIBC_2.14' not found

  ll /lib/libc.so.6查看现在版本

  下载安装匹配版本(http://www.filewatcher.com/,注意32、64位,详见文章“CentOS安装glibc-2.14”)


Q: JPS 不见datanode,或hadoop fs -put 时文件不见在hdfs上但mkdir却可以的情况

A: http://blog.csdn.net/hackerwin7/article/details/19973045

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值