Ubuntu部署Hadoop集群

环境配置信息:

     Ubuntu:Ubuntu 14.04

     Hadoop:hadoop-2.7.2

     jdk:Java 1.8.0_73

配置步骤:

步骤1:将集群中的机器开启root登陆

 

步骤2:配置集群中的主机名和其对应的ip地址,修改/etc/hosts和/etc/hostname两个文件

 

hosts 文件用于定义主机名与 IP地址之间的对应关系(三台主机配置相同 )

命令:vim /etc/hosts

171951_xztK_2360493.png

 

hostname这个文件用于定义Ubuntu的主机名(不同 ip对应的名字不同192.168.60.141对应 master,192.168.60.142对应slaver1,192.168.60.143 对应slaver2)。

命令:vim /etc/hostname

192.168.60.141

172008_BN3s_2360493.png

192.168.60.142

172019_qIJk_2360493.png

192.168.60.143

172027_WjLL_2360493.png

 

步骤3:jdk的安装与配置

 

步骤4:安装ssh,配置免密码登陆

 

1、安装ssh:

命令:apt-get install ssh

2、查看是否安装成功:

命令:ps -e | grep ssh

172049_lMJO_2360493.png

3、更改sshd_config文件

命令:vim /etc/ssh/sshd_config

172057_F22k_2360493.png

4、生成密钥

命令:ssh-keygen -t dsa

在此过程中,所有的操作全部默认回车。

5、生成密钥对及授权文件

命令:cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

执行完这一步就可以在.ssh/文件夹下看到公钥文件

命令:ls .ssh/

172305_Z9nJ_2360493.png

6、将授权文件复制到其余节点相同目录下

命令:scp authorized_keys slaver1:~/.ssh

7、为了防止防火墙禁止一些端口的使用,所有的机子应该关闭防火墙

命令:ufw disable

8、测试是否安装成功

命令:ssh slaver1

如果在不用输入密码的情况下直接跳转到slaver1节点,说明安装成功,依次测试其他节点。

 

步骤5:Hadoop完全分布式安装部署

 

1、下载Hadoop二进制包

网址:http://hadoop.apache.org/releases.html

172331_oc4C_2360493.png

2、将Hadoop二进制包copy到master服务器中,并解压。

命令:tar -zxvf hadoop-2.7.2.tar.gz

172341_k6uk_2360493.png

3、配置hadoop-env.sh文件,修改文件中的JAVA_HOME

172350_WtpJ_2360493.png

4、配置yarn-env.sh文件,修改文件中的JAVA_HOME

172400_tdOy_2360493.png

5、配置slaves文件,保存所有slaver节点的主机名

172408_j08t_2360493.png

6、配置core-site.xml文件,添加如下内容:

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://master:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hdfs_all/tmp</value>

</property>

</configuration>

172418_AOwy_2360493.png

7、配置hdfs-site.xml文件,添加如下内容:

<configuration>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/home/hdfs_all/dfs/name</value>

</property>

<property>

<name>dfs.namenode.data.dir</name>

<value>file:/home/hdfs_all/dfs/data</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

<property>

<name>dfs.permissions.superusergroup</name>

<value>supergroup</value>

</property>

</configuration>

172429_4sCW_2360493.png

8、配置mapred-site.xml文件,添加如下内容

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>master:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.adress</name>

<value>master:19888</value>

</property>

</configuration>

172443_fLxq_2360493.png

9、配置yarn-site.xml文件,添加如下内容

<configuration>

 

<!-- Site specific YARN configuration properties -->

 

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.resourcemanager.address</name>

<value>master:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>master:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>master:8031</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>master:8033</value>

</property>

<property>

<name>yarn.resourcemanager.webaap.address</name>

<value>master:8088</value>

</property>

 

</configuration>

172453_Bz8Y_2360493.png

10、将上面配置好的Hadoop文件复制到剩余全部节点

命令: scp -r /root/u/hadoop/hadoop-2.7.2 slaver1:/root/u/hadoop/

 

步骤6:配置Hadoop环境变量

 

 修改/etc/profile文件:

172509_cMqX_2360493.png

172517_Acez_2360493.png

     修改/etc/environment文件:

172522_PjGO_2360493.png

    添加完成后生效两个文件:

命令:source /etc/environment

 

步骤7:启动Hadoop,验证是否配置成功

 

1、格式化namenode

命令:hadoop  namenode -format

2、启动Hadoop

命令:start-all.sh

3、查看节点启动状况

命令:jps

master节点:

172533_P3YP_2360493.png

slaver节点:

172540_mFhO_2360493.png

 

附:

 

查看集群状态hadoop dfsadmin -report

查看分布式文件系统: http://master:50070

查看 MapReduce:http://master:8088

如果此地址不能成功,将master换成ip地址

转载于:https://my.oschina.net/u/2360493/blog/683005

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值