从单节点的hadoop扩展到多节点。

首先准备好另外俩台虚拟机,配置网络,ip地址,用户名,以及ip地址与用户名的映射。


之后,安装好JDK,步骤跟第一二篇博客内容一样,注意网关地址不能相同,否则,CRT会报错。


搞定之后,利用CRT来进行从主节点无密登陆其他机器的操作

命令ssh-copy-id hadoop-server-01

登陆成功之后用远程传输,来把安装配置好的hadoop传输到其他节点

命令scp -r hadoop目录  目标名 想存放的目录 来进行传输

比如我这边是scp -r /usr/local/app/hadoop hadoop-server-01:/usr/local/app/

因为我们这边00的机器是执行过的,所以还要对传输过去的hadoop进入到里面把tmp目录删掉,不然会冲突

命令 rm -rf tmp/

之后 再去配置文件里面 修改配置文件

vi slaves 添加俩个从节点的主机名,之后使用start-all.sh 的时候,会在里面查找 并且启动各个节点的服务

这样 我们的hadoop集群就完成了

为了方便 我们还可以配置环境变量

vi /etc/profile

export HADOOP_HOME=/usr/local/app/hadoop-2.6.0-cdh5.6.0/
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

这样 我们就可以在任何目录下 使用hadoop的命令

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值