Hadoop服役新服务器

目录

0、准备一台新服务器

1、修改主机名

2、配置静态ip

3、配置xshell登录

4、关闭并禁用防火墙 

 5、分发hadoop和jdk文件

 6、分发环境变量文件

 7、source 环境变量

 8、配置ssh

9、删除105节点的data、logs文件夹

 10、单节点启动并关联到集群

11、验证新节点是否有效


0、准备一台新服务器

本篇以虚拟机为例,安装好CentOS7系统

1、修改主机名

vim /etc/hostname 

2、配置静态ip

vim /etc/sysconfig/network-scripts/ifcfg-ens33 

 配置之后进行重启

3、配置xshell登录

 登录之后检查hostname和ip、网关是否正常

4、关闭并禁用防火墙 

systemctl status firewalld

systemctl stop firewalld

systemctl disable firewalld

 5、分发hadoop和jdk文件

scp -r module/* mingyu@hadoop105:/opt/module/

 6、分发环境变量文件

sudo scp /etc/profile.d/my_env.sh root@hadoop105:/etc/profile.d/

 7、source 环境变量

让环境变量生效

source /etc/profile.d/my_env.sh

 8、配置ssh

hadoop102里面有namenode

hadoop103里面有ResourceManager

使得通信流畅

102进入home目录,再进入.ssh目录

cd

cd .ssh/

ssh-copy-id hadoop105

输入yes和105的密码即可

9、删除105节点的data、logs文件夹

因为过去生成的clustr id不再适用

rm -rf data/ logs/

 10、单节点启动并关联到集群

hdfs --daemon start datanode

yarn --daemon start nodemanager

①在HDFS配置的白名单中放行Hadoop105

vim etc/hadoop/whitelist

②将105加入到workers名单

cd /opt/module/hadoop-3.1.3/etc/hadoop

vim workers

xsync workers 

 

 并分发workers

分发白名单,并在105上面也将105加入白名单 

在102中刷新节点

hdfs dfsadmin -refreshNodes

 此时在hdfs中就存在hadoop105了

11、验证新节点是否有效

从hadoop105节点上传文件到HDFS系统

hadoop fs -put README.txt /

 可以看到上传成功

 

 由于优先上传本地节点,在105中必有文件块,当105节点上传较多,导致文件不均衡,下一篇进行解决

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值