搭建Hadoop集群

前提: 从母机克隆三台


一.克隆机更改 ip

// [root@Hadoop 桌面]# vim /etc/udev/rules.d/70-persistent-net.rules


// [root@Hadoop 桌面]# vim /etc/sysconfig/network-scripts/ifcfg-eth0


二. 检查是否更改成功

// ip addr / ifconfig
// 重启网络  service network restart
// 重启 reboot

三. 更改主机名

// [root@Hadoop 桌面]# vim /etc/sysconfig/network
// 需要重启才可以生效


四.改映射

// [root@Hadoop 桌面]# vim /etc/hosts
// 例如:
192.168.6.77 hadoop11
192.168.6.78 hadoop22
192.168.6.79 hadoop33

五.关闭防火墙

// 关闭
// service iptables stop  
// 关闭开机自动启动
// chkconfig iptables off

六.连接xshell

七.搭建hadoop集群

// tar -zxf ? -C ?
// hadoop1/2/3环境配置
// vim /etc/profile
/**
#HADOOP_HOME
export HADOOP_HOME=/opt/en/hadoop-2.7.2/
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
*/
// 刷新
// source /etc/profile
// 查询配置是否成功 
// hadoop version
// 其他

八.传输给其他两台

// rsync -av ? root@主机名:?
// 两台:配置环境变量 + 刷新 + 测试
// 其他

九.配置集群

1.

// cd /etc/hadoop/
// vim core-site.xml
/** 
<!--1、NameNode地址:ip/主机名+端口-->
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://Hadoop1:9000</value>
        </property> 
<!--2、Hadoop运行数据目录:地址-->
        <property>
                <name>hadoop.tmp.dir</name> 
                <value>/opt/en/hadoop-2.7.2/data/tmp</value> 
        </property>   
*/

// vim hadoop-env.sh
// 在末尾加上
/**
#JAVA_HOME
export JAVA_HOME=/opt/en/jdk1.8.0_144
//
#JAVA_HOME
export JAVA_HOME=/opt/en/jdk1.8.0_144
*/

2.

// vim hdfs-site.xml
/** 
<!--副本数3-->
        <property>
                <name>dfs.replication</name>
                <value>3</value>
        </property> 
<!--2、snn配置:主机名/ip+端口-->
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>Hadoop2:50090</value>
        </property> 
	
*/

// vim yarn-env.sh
// 在末尾加上
/**
#JAVA_HOME
export JAVA_HOME=/opt/en/jdk1.8.0_144
*/

3.

// vim yarn-site.xml
/**
<!--1、reducer的获取数据的方式--> 
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property> 
<!--2、rm的位置-->
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>Hadoop3</value>
        </property>
*/


// vim mapred-env.sh
// 在末尾加上
/**
#JAVA_HOME
export JAVA_HOME=/opt/en/jdk1.8.0_144
*/

4.

// 改名
// cp mapred.xml.template mapred-site.xml
// vim mapred-site.xml
/** 
<!--1.指定mr运行自YARN上-->
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
*/

十.传输

// rsync -av /opt/en/hadoop/ root@hadoop:/opt/en/hadoop/

十一.单启

// 集群启动第一要格式化__转到hadoop目录下
// hdfs namenode -format
// 1
// hadoop-daemon.sh start namenode
// 1/2/3
// hadoop-daemon.sh start datanode
// jps

十二.群起

// cd ~/.ssh/
// ssh.keygen -t rsa
// ll
// 是否有 id_rsa
// 传1/2/3
// ssh-copy-id hadoop1/2/3

// 测试
// ssh hadoop2/3

// 群起配置
// cd /opt/en/hadoop-2.7.2/ect/hadoop/
// vim slaves
// 删除原所有 + 
/**
// 对应主机名
hadoop1
hadoop2
hadoop3
*/
// 传输给hadoop2/3


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值