Hadoop 分布式安装过程简述

1.实验分布结构:

节点责任描述
主节点(1个,主机名hadoop)NameNode、JobTracker、SecondaryNameNode
从节点(2个,主机名hadoop1、hadoop2)DataNode、TaskTracker
  • 主机名的配置:
[root@hadoop2 ~]# vi /etc/sysconfig/network

ps:编辑此文件:

HOSTNAME=hadoop2

成功设置主机名为hadoop2

[root@hadoop2 ~]# vi /etc/hosts

ps:设置完主机名后,仍需要把主机名跟主机IP绑定,编辑此文件添加一行记录:

192.168.137.130 hadoop

IP为主机IP后边为此IP对应解析的主机名。其他节点都设置好后,这里仍需要添加其他节点的IP和对应解析的主机名。

2.各个节点生成SSH免密码登录秘钥

  • 生成公钥/私钥对
[root@hadoop2 ~]#ssh-keygen -t rsa 

产生秘钥位于~/.ssh文件夹中(~ 表示当前用户目录,root的就是/root/.ssh,其他用户的就是/home/用户名/.ssh)

  • 把生成的公钥()拷贝到目标主机上
[root@hadoop2 ~]# scp /root/.ssh/id_rsa.pub hadoop:/root/.ssh/id_rsa.pub.hadoop2
  • 在目标主机上把刚拷贝来的公钥(id_rsa.pub.hadoop2)追加到/root/.ssh/authorized_keys
[root@hadoop ~]# cat /root/.ssh/id_rsa.pub.hadoop2 >> /root/.ssh/authorized_keys
  • 验证
[root@hadoop2 ~]#ssh hadoop    

ps:#(hadoop)为主机名
有关ssh免密码登陆,请看《SSH免密码登陆》

3.清除一些不必要的文件

把hadoop(主机名,为主节点)的hadoop目录下的logs和tmp删除

4.各节点从主节点复制文件

复制内容:

  • JDK
  • /etc/profile(环境变量)
  • hadoop的安装目录
[root@hadoop ~]#scp  -r /usr/local/jdk   hadoop1:/usr/local/

ps:hadoop的复制同示例命令,所以节点都需要拷贝主机的JDK和hadoop的安装目录

[root@hadoop1 ~]#source  /etc/profile

ps:在拷贝到的目标节点下需要使拷贝的环境变量文件生效

5.设置主从关系

配置slaves文件

[root@hadoop conf]# vi /usr/local/hadoop/conf/slaves

改为

hadoop1
hadoop2

ps:hadoop1,和hadoop2是另外两个节点

6.格式化

在主节点hadoop下执行:

[root@hadoop conf]#hadoop namenode -format

7.启动

在主节点hadoop执行

[root@hadoop conf]#start-all.sh

8.注意

配置文件core-site.xml和mapred-site.xml在所有节点中都是相同的内容

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值