4台机器完全分布式安装hadoop,bigbrother的补充

完全分布式
示意图
在这里插入图片描述

Namnode的配置
克隆机器
1, 克隆,改名
2, 该udev文件 /etc/udev/rules.d/70-…-net… 把最后一行的eth1改为eth0,把前面几行都注释掉
start_udev 开启
改网卡/etc/sysconfig/network-scripts/ifcfg-eth0
IPADDR=192.168.x.100
把uuid和MAC地址注释掉或者删除
Service network restart
3, 改名
/etc/sysconfig/network
把里面的默认localhost改为namenode
重启 reboot
4, 关闭防火墙 service iptables stop
5, 安装JDK ,安装Hadoop
rpm -ivh jdk… 默认安装到/usr/java/jdk… 把它名字改为jdk7
配置环境变量/etc/profile
里面需要添加两行
export JAVAHOME=/usr/java/jdk7
export PATH= P A T H : PATH: PATH:JAVAHOME/bin
文件配置完毕侯需要source一下
source /etc/profile

安装hadoop
tar -zxvf had… -C /opt/
配置环境变量/etc/profile
里面需要添加两行
export HADOOP_PREFIX=/opt/hadoop-2.6.5
export PATH= P A T H : PATH: PATH:HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin
文件配置完毕侯需要source一下
source /etc/profile
6, 修改hosts文件,通过名字可以找到对方的IP 写四条
vi /etc/hosts添加下面4条
192.168.x.100 namenode
192.168.x.101 node1
192.168.x.102 node2
192.168.x.103 node3
7,配置三个环境变量文件
/opt/hadoo
p-2.6.5/etc/hadoop/
vi hadoop-env.sh
mapred-env.sh
yarn-env.sh
这三个文件里面修改JAVA_HOME改位自己安装的JDK目录
JAVA_HOME=/usr/java/jdk7
8,配置主要配置文件
vi core-site.xml

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://namenode:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/var/hadoop/local</value>
</property>

配置hdfs-site.xml
vi hdfs-site.xml

<property>
    <name>dfs.replication</name>
    <value>2</value>
</property>
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>node1:50090</value>
</property>

配置奴隶文件
Vi slaves
添加
node1
node2
node3

NODE1:
1, 克隆,改名
2, 该udev文件 /etc/udev/rules.d/70-…-net… 把最后一行的eth1改为eth0,把前面几行都注释掉
start_udev 开启
改网卡/etc/sysconfig/network-scripts/ifcfg-eth0
IPADDR=192.168.x.101
把uuid和MAC地址注释掉或者删除
Service network restart
3, 改名
/etc/sysconfig/network
把里面的默认localhost改为node1
重启 reboot
4, 关闭防火墙 service iptables stop
5, 安装JDK ,安装Hadoop
rpm -ivh jdk… 默认安装到/usr/java/jdk… 把它名字改为jdk7
配置环境变量/etc/profile
里面需要添加两行
export JAVAHOME=/usr/java/jdk7
export PATH= P A T H : PATH: PATH:JAVAHOME/bin
文件配置完毕侯需要source一下
source /etc/profile

安装hadoop
tar -zxvf had… -C /opt/
配置环境变量/etc/profile
里面需要添加两行
export HADOOP_PREFIX=/opt/hadoop-2.6.5
export PATH= P A T H : PATH: PATH:HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin
文件配置完毕侯需要source一下
source /etc/profile
6, 修改hosts文件,通过名字可以找到对方的IP 写四条
vi /etc/hosts添加下面4条
192.168.x.100 namenode
192.168.x.101 node1
192.168.x.102 node2
192.168.x.103 node3
7,配置三个环境变量文件
/opt/hadoo
p-2.6.5/etc/hadoop/
vi hadoop-env.sh
mapred-env.sh
yarn-env.sh
这三个文件里面修改JAVA_HOME改位自己安装的JDK目录
JAVA_HOME=/usr/java/jdk7
8,配置主要配置文件
vi core-site.xml

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://namenode:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/var/hadoop/local</value>
</property>

配置hdfs-site.xml
vi hdfs-site.xml

<property>
    <name>dfs.replication</name>
    <value>2</value>
</property>
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>node1:50090</value>
</property>

配置奴隶文件
Vi slaves
添加
node1
node2
node3
NODE2:
1, 克隆,改名
2, 该udev文件 /etc/udev/rules.d/70-…-net… 把最后一行的eth1改为eth0,把前面几行都注释掉
start_udev 开启
改网卡/etc/sysconfig/network-scripts/ifcfg-eth0
IPADDR=192.168.x.102
把uuid和MAC地址注释掉或者删除
Service network restart
3, 改名
/etc/sysconfig/network
把里面的默认localhost改为node2
重启 reboot
4, 关闭防火墙 service iptables stop
5, 安装JDK ,安装Hadoop
rpm -ivh jdk… 默认安装到/usr/java/jdk… 把它名字改为jdk7
配置环境变量/etc/profile
里面需要添加两行
export JAVAHOME=/usr/java/jdk7
export PATH= P A T H : PATH: PATH:JAVAHOME/bin
文件配置完毕侯需要source一下
source /etc/profile

安装hadoop
tar -zxvf had… -C /opt/
配置环境变量/etc/profile
里面需要添加两行
export HADOOP_PREFIX=/opt/hadoop-2.6.5
export PATH= P A T H : PATH: PATH:HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin
文件配置完毕侯需要source一下
source /etc/profile
6, 修改hosts文件,通过名字可以找到对方的IP 写四条
vi /etc/hosts添加下面4条
192.168.x.100 namenode
192.168.x.101 node1
192.168.x.102 node2
192.168.x.103 node3
7,配置三个环境变量文件
/opt/hadoo
p-2.6.5/etc/hadoop/
vi hadoop-env.sh
mapred-env.sh
yarn-env.sh
这三个文件里面修改JAVA_HOME改位自己安装的JDK目录
JAVA_HOME=/usr/java/jdk7
8,配置主要配置文件
vi core-site.xml

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://namenode:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/var/hadoop/local</value>
</property>

配置hdfs-site.xml
vi hdfs-site.xml

<property>
    <name>dfs.replication</name>
    <value>2</value>
</property>
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>node1:50090</value>
</property>

配置奴隶文件
Vi slaves
添加
node1
node2
node3

NODE3:
1, 克隆,改名
2, 该udev文件 /etc/udev/rules.d/70-…-net… 把最后一行的eth1改为eth0,把前面几行都注释掉
start_udev 开启
改网卡/etc/sysconfig/network-scripts/ifcfg-eth0
IPADDR=192.168.x.103
把uuid和MAC地址注释掉或者删除
Service network restart
3, 改名
/etc/sysconfig/network
把里面的默认localhost改为node3
重启 reboot
4, 关闭防火墙 service iptables stop
5, 安装JDK ,安装Hadoop
rpm -ivh jdk… 默认安装到/usr/java/jdk… 把它名字改为jdk7
配置环境变量/etc/profile
里面需要添加两行
export JAVAHOME=/usr/java/jdk7
export PATH= P A T H : PATH: PATH:JAVAHOME/bin
文件配置完毕侯需要source一下
source /etc/profile

安装hadoop
tar -zxvf had… -C /opt/
配置环境变量/etc/profile
里面需要添加两行
export HADOOP_PREFIX=/opt/hadoop-2.6.5
export PATH= P A T H : PATH: PATH:HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin
文件配置完毕侯需要source一下
source /etc/profile
6, 修改hosts文件,通过名字可以找到对方的IP 写四条
vi /etc/hosts添加下面4条
192.168.x.100 namenode
192.168.x.101 node1
192.168.x.102 node2
192.168.x.103 node3
7,配置三个环境变量文件
/opt/hadoo
p-2.6.5/etc/hadoop/
vi hadoop-env.sh
mapred-env.sh
yarn-env.sh
这三个文件里面修改JAVA_HOME改位自己安装的JDK目录
JAVA_HOME=/usr/java/jdk7
8,配置主要配置文件
vi core-site.xml

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://namenode:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/var/hadoop/local</value>
</property>

配置hdfs-site.xml
vi hdfs-site.xml

<property>
    <name>dfs.replication</name>
    <value>2</value>
</property>
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>node1:50090</value>
</property>

配置奴隶文件
Vi slaves
添加
node1
node2
node3

以上都做完后,开始免密钥登录
(1) 在4台上产生公钥
ssh-keygen -t dsa -P ‘’ -f ~/.ssh/id_dsa
(2)把自己的公钥进行修改名字
cp ~/.ssh/id_dsa.pub namenode.pub (node1.pub,node2.pub,node3.pub)
(3)把这些公钥放在同一台机器上然后一个authorized文件里面
Cat namenode.pub >> ~/.ssh/authorized_keys
Node1.pub >> ~/.ssh/authorized_keys
Node2.pub >> ~/.ssh/authorized_keys
Node3.pub >> ~/.ssh/authorized_keys
把authorized文件scp各个机器

做免密码测试

把四台机器的时间设置为一样的时间

Date -s “xxxxxx”

格式化hdfs
Hdfs namenode -fromat

启动集群
Start-dfs.sh
最后使用jps看一下集群是否正常!

  • 6
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值