搭建namenode HA后50070查看不了文件

搭建namenode HA查看50070
报错:
Operation category READ is not supported in state standby. Visit https://s.apache.org/sbnn-error
在这里插入图片描述
原因:
standby地址namenode不能看browse the file system
在这里插入图片描述

解决方法:
换一个显示active的50070查看即可
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Hadoop集群搭建双namenode可以提高集群的可靠性,当一个namenode出现故障时,另一个namenode可以继续工作,保证集群的持续运行。下面介绍一下如何搭建双namenodeHadoop集群。 1. 安装Hadoop 首先需要安装Hadoop,可以在官网下载最新版本的Hadoop。安装完成后,需要进行一些配置,如设置JAVA_HOME、HADOOP_HOME等环境变量。 2. 配置Hadoop集群 在搭建双namenodeHadoop集群时,需要进行一些特殊的配置。在conf目录下创建一个hdfs-site.xml文件,配置如下: ```xml <configuration> <property> <name>dfs.nameservices</name> <value>mycluster</value> </property> <property> <name>dfs.ha.namenodes.mycluster</name> <value>nn1,nn2</value> </property> <property> <name>dfs.namenode.rpc-address.mycluster.nn1</name> <value>namenode1:9000</value> </property> <property> <name>dfs.namenode.rpc-address.mycluster.nn2</name> <value>namenode2:9000</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn1</name> <value>namenode1:50070</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn2</name> <value>namenode2:50070</value> </property> <property> <name>dfs.client.failover.proxy.provider.mycluster</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> </property> </configuration> ``` 其中dfs.nameservices配置为集群的名称,dfs.ha.namenodes配置为namenode节点的名称,dfs.namenode.rpc-address配置为rpc地址,dfs.namenode.http-address配置为http地址。 3. 配置其他参数 在搭建双namenodeHadoop集群时,还需要配置其他参数。在conf目录下创建一个core-site.xml文件,配置如下: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://mycluster</value> </property> <property> <name>ha.zookeeper.quorum</name> <value>zk1:2181,zk2:2181,zk3:2181</value> </property> </configuration> ``` 其中fs.defaultFS配置为HDFS的默认文件系统,ha.zookeeper.quorum配置为Zookeeper的地址。 4. 启动Hadoop集群 启动Hadoop集群时,需要同时启动两个namenode节点和一个ResourceManager节点。可以使用如下命令启动: ``` hadoop-daemon.sh start namenode hadoop-daemon.sh start namenode2 yarn-daemon.sh start resourcemanager ``` 5. 验证Hadoop集群 启动完成后,可以使用hdfs命令验证Hadoop集群是否正常工作。可以使用如下命令: ``` hdfs dfs -ls / ``` 如果能够列出HDFS根目录的内容,则说明Hadoop集群已经搭建成功。 总结 通过上述步骤,我们成功搭建了双namenodeHadoop集群,提高了集群的可靠性。在实际应用中,还需要进行一些优化和调整,以满足业务需求。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值