大数据_08 【新增节点与删除节点】
服役新节点具体步骤
01 需求基础
需求基础 随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。
02 准备新节点
- 复制一台新的虚拟机出来 将我们纯净的虚拟机复制一台出来,作为我们新的节点
- 第二步:修改mac地址以及IP地址
- 第三步:关闭防火墙,关闭selinux
- 第四步:更改主机名
- 第五步:四台机器更改主机名与IP地址映射
- 第六步:node04服务器关机重启并生成公钥与私钥
- 第七步:node04安装jdk
- 第八步:解压Hadoop安装包
- 第九步:将node01关于Hadoop的配置文件全部拷贝到node04
03 服役新节点具体步骤
- 在node01也就是namenode所在的机器的/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop目录下创建dfs.hosts文件
[root@node01 Hadoop]# cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
[root@node01 Hadoop]# touch dfs.hosts
[root@node01 Hadoop]# vim dfs.hosts
添加如下主机名称(包含新服役的节点)
node01
node02
node03
node04
- 第二步:node01编辑hdfs-site.xml添加以下配置(在namenode的hdfs-site.xml配置文件中增加dfs.hosts属性node01执行以下命令)
cd /export/servers/Hadoop-2.6.0-cdh5.14.0/etc/Hadoop
vim hdfs-site.xml