--NN的本地目录可以配置成多个,且每个目录存放内容相同,增加了可靠性,name1和name2可以挂载到不同磁盘(linux支持),这样就可以保证元数据的可靠性,多目录挂载单个磁盘,没有意义,磁盘坏掉,目录也就坏掉了
--生产环境中,要提前就考虑好每个NN目录要挂载的磁盘,保证一个磁盘坏掉,其它仍然可进行读写操作
具体操作:
1、配置hdfs-site.xml文件
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///${hadoop.tmp.dir}/name1,file:///${hadoop.tmp.dir}/name2</value>
</property>
2、停止集群,删除data和logs中所有数据(多台机器均要执行以下操作,保证数据一致性)
stop-dfs.sh
rm -rf /opt/module/hadoop-3.1.3/data
rm -rf /opt/module/hadoop-3.1.3/logs
3、格式化集群启动
bin/hdfs namenode -format
bin/hdfs --daemon start namenode(单个起) start-dfs.sh(群起集群)
4、查看结果
ll /opt/module/hadoop-3.1.3/data
Hadoop中NN的多目录设置
最新推荐文章于 2024-06-25 10:37:58 发布