Hadoop版本1安装

Hadoop安装前准备:(所以节点都要做)
1.系统:CentOS 6.4 64位
2.关闭防火墙和SELinux
 service iptables status
 service iptables stop
 chkconfig iptables off
 vi /etc/sysconfig/selinux
 设置 SELEINUX=disabled
      SELINUXTYPE=disabled
 检查:setenforce 0
3.设置静态IP地址
 vi /etc/sysconfig/network-scripts/ifcfg-eth0
 DEVICE=eth0
 BOOTPROTO=none
 HWADDR=00:0c:29:7a:50:d6
 ONBOOT=yes
 NETMASK=255.255.255.0
 IPADDR=192.168.18.111
 TYPE=Ethernet
4.修改hostname
 hostname h1
 vi /etc/sysconfig/network
5.ip与hostname绑定
 vi /etc/hosts
 192.168.18.111 h1
 192.168.18.112  h2
 192.168.18.113  h3
6.更换jdk版本
 检查Java包:rpm -qa | grep java
 脱离依赖关系:rpm -e --nodeps java-1.4.2-gcj-compat-devel-1.4.2.0-40jpp.115
 安装Java:tar -zxvf jdk-7u25-linux-i586.tar.gz -C /usr/
 授权命令:chmod u+x jdk-7u25-linux-i586.tar.gz
 检查版本:java -version
 设置环境变量:vi /etc/profile
 export JAVA_HOME=/usr/jdk1.7.0_25
 export JAVA_BIN=/usr/jdk1.7.0_25/bin
 export PATH=$PATH:$JAVA_HOME/bin
 export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar 
 export JAVA_HOME JAVA_BIN PATH CLASSPATH
 环境变量实现:reboot或 source /etc/profile
7.创建Hadoop用户:
 useradd hadoop
 passwd hadoop
开始安装Hadoop:安装在一台机器,然后拷贝到其他机器
[Hadoop@h1 ~]# tar zxvf hadoop-0.20.2-cdh3u5.tar.gz -C /usr/local
编辑hadoop 配置文件 一般编辑5个配置文件
 hadoop-env.sh core-site.xml  hdfs-site.xml mapred-site.xml year-site.xml 
[Hadoop@h1 ~]# cd /usr/local/hadoop-0.20.2-cdh3u5/conf/
[Hadoop@h1 conf]# vi hadoop-env.sh
添加
export JAVA_HOME=/usr/jdk1.7.0_25/ (必须有最后的一个 / 斜杠)
设置namenode启动端口
[Hadoop@h1 conf]# vi core-site.xml
添加
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://h1:9000</value>
</property>
</configuration>
设置datanode节点数为2
[Hadoop@h1 conf]# vi hdfs-site.xml
添加
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
</configuration>
设置jobtracker端口
[Hadoop@h1 conf]# vim mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>h1:9001</value>
</property>
</configuration>
[Hadoop@h1 conf]# vi masters
改为  h1(主机名)
[Hadoop@h1 conf]# vi slaves
改为  
h2
h3
拷贝到其他两个节点
[Hadoop@h1 conf]# cd /usr/local/
[Hadoop@h1 local]# scp -r ./hadoop-0.20.2-cdh3u5/ h2:/usr/local/
[Hadoop@h1 local]# scp -r ./hadoop-0.20.2-cdh3u5/ h3:/usr/local/
在所有节点上执行以下操作,把/usr/local/hadoop-0.20.2-cdh3u5的所有者,所有者组改为hadoop并su成该用户
[Hadoop@h1 ~]# chown hadoop.hadoop /usr/local/hadoop-0.20.2-cdh3u5/ -R
[Hadoop@h2 ~]# chown hadoop.hadoop /usr/local/hadoop-0.20.2-cdh3u5/ -R
[Hadoop@h3 ~]# chown hadoop.hadoop /usr/local/hadoop-0.20.2-cdh3u5/ -R
[Hadoop@h1 ~]# su - hadoop
[Hadoop@h2 ~]# su - hadoop
[root@h3 ~]# su - hadoop
所有节点上创建密钥
[hadoop@h1 ~]$ ssh-keygen -t rsa
[hadoop@h2 ~]$ ssh-keygen -t rsa
[hadoop@h3 ~]$ ssh-keygen -t rsa
[hadoop@h1 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h1
[hadoop@h1 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h2
[hadoop@h1 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h3
[hadoop@h2 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h1
[hadoop@h2 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h2
[hadoop@h2 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h3
[hadoop@h3 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h1
[hadoop@h3 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h2
[hadoop@h3 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub h3

格式化 namenode  (只做一次)
[hadoop@h1 ~]$ cd /usr/local/hadoop-0.20.2-cdh3u5/
[hadoop@h1 hadoop-0.20.2-cdh3u5]$ bin/hadoop namenode -format
开启
[hadoop@h1 hadoop-0.20.2-cdh3u5]$ bin/start-all.sh
在所有节点查看进程状态验证启动
[hadoop@h1 hadoop-0.20.2-cdh3u5]$ jps
8602 JobTracker
8364 NameNode
8527 SecondaryNameNode
8673 Jps
[hadoop@h2 hadoop-0.20.2-cdh3u5]$ jps
10806 Jps
10719 TaskTracker
10610 DataNode
[hadoop@h3 hadoop-0.20.2-cdh3u5]$ jps
7605 Jps
7515 TaskTracker
7405 DataNode
安装完成后配置一下环境变量就好了
root用户:vi /etc/profile
 export JAVA_HOME=/usr/jdk1.7.0_25
 export JAVA_BIN=/usr/jdk1.7.0_25/bin
 export PATH=$PATH:$JAVA_HOME/bin
 export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
 export JAVA_HOME JAVA_BIN PATH CLASSPATH
 export HADOOP_HOME=/usr/local/hadoop-0.20.2-cdh3u5
 export HADOOP_BIN=/usr/local/hadoop-0.20.2-cdh3u5/bin
 export PATH=$PATH:$HADOOP_HOME/bin
 export HIVE_HOME=/home/hadoop/hive-0.7.1-cdh3u5
 export PATH=$PATH:$HIVE_HOME/bin
Hadoop用户:vi .bash_profile
 PATH=$PATH:$HOME/bin:/usr/local/hadoop-0.20.2-cdh3u5/bin/
 export SQOOP_HOME=/home/hadoop/sqoop-1.3.0-cdh3u5
网页查看进程:http://192.168.18.111:50070/
出错原因:404
 可能是因为配置文件没有生效或者版本更换时没有生效配置文件
 source /etc/profile
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值