本文hadoop的版本为hadoop-2.6.4
下面还有些细节:免密码登录、将 节点配好的配置传输到其他节点
一、安装java jdk
1、下载java jdk1.7版本,放在/home/apps目录下,
2解压:tar -zxvf java-jdk*****.jar
3、vim /etc/profile
1 2 3 4 5 |
|
4、检测是否成功安装:java -version
二、安装hadoop
1、使用自建的用户登录,我用的是hadoop用户登录,在根目录下建一个apps文件夹。
2、解压hadoop到apps目录中:tar -zxvf hadoop-2.6.4.tar.gz -C /home/apps/
3、进入目录:/home/apps/hadoop-2.6.4/etc/hadoop
三、修改配置文件
1、修改hadoop-env.sh,配置java jdk路径,大概在27行配置,如下:
export JAVA_HOME=/home/apps/jdk1.7
2、修改core-site.xml,配置内容如下
1 2 3 4 5 6 7 8 9 10 11 12 |
|
3、修改hdfs-site.xml,修改配置如下
1 2 3 4 5 |
<property> |
4、修改mapred-site.xml 由于在配置文件目录下没有,需要修改名称:mv mapred-site.xml.template mapred-site.xml
<configuration> <!-- 通知框架MR使用YARN --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
5、修改yarn-site.xml,修改内容如下
1 2 3 4 5 6 7 8 9 10 11 |
|
6、免密码登录:
在node1节点上:ssh-keygen
ssh-copy-id node1
ssh-copy-id node2
ssh-copy-id node3
ssh-copy-id node4
sudo scp -r /home/apps/hadoop-2.6.4 node2:/home/apps/hadoop-2.6.4
sudo scp -r /home/apps/hadoop-2.6.4 node3:/home/apps/hadoop-2.6.4
sudo scp -r /home/apps/hadoop-2.6.4 node4:/home/apps/hadoop-2.6.4
7、配置:/home/apps/hadoop-2.6.4/etc/hadoop/slaves(配置datanode的主机名)
Node2
Node 3
Node 4
8、讲hadoop添加到环境变量,然后更新一下环境变量:source /etc/profile
export JAVA_HOME=//home/apps/jdk1.7 export HADOOP_HOME=/home/apps/hadoop-2.6.4 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
sudo scp -r /etc/profile node2:/etc/profile
sudo scp -r /etc/profile node3:/etc/profile
sudo scp -r /etc/profile node4:/etc/profile
source /etc/profile
四、启动hadoop
1、格式化hadoop,进入目录:/home/apps/hadoop-2.6.4/etc/hadoop,执行下列之一命令即可
hadoop namenode -format (过时) hdfs namenode -format
2、启动hdfs和yarn
先启动HDFS sbin/start-dfs.sh 再启动YARN sbin/start-yarn.sh
3、验证是否成功,使用命令:jps,输出如下即表示配置成功。
1 2 3 4 5 6 7 |
|
4、可以在浏览器中查看hdfs和mr的状态.hdfs管理界面:http://localhost:50070 MR的管理界面:http://localhost:8088