hdfs
_自由之子_
这个作者很懒,什么都没留下…
展开
-
hadoop里的hdfs datanode 不能启动的问题
at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:477) at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:226)原创 2016-10-21 12:02:13 · 701 阅读 · 0 评论 -
hadoop ha 只能同时启动一个namenode问题的解决方案
启动一个,另外一个就自动退出了。。后来发现是我配置文件的问题:1. hdfs-site.xml 里缺少如下配置,这是关于HA的<property> <name>dfs.client.failover.proxy.provider.mycluster</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailo原创 2016-10-21 15:36:41 · 5197 阅读 · 2 评论 -
Hadoop 执行 hdfs namenode -format报错
错误如下Could not find or load main class org.apache.hadoop.hdfs.server.namenode.NameNode按照网上说的办法,加入各种环境变量也没有,最后发现不是环境变量的问题,而是我把hadoop按照文件夹里的share/hadoop文件整个给删掉了。。所以不能执行,从安装包里手动copy一份出来,问题解决原创 2016-10-16 16:20:11 · 5836 阅读 · 0 评论 -
hdfs 监听 所有地址的请求
1.修改 hdfs-site.xml加入如下<property> <name>dfs.namenode.rpc-bind-host</name> <value>0.0.0.0</value> </property>2.记得使用stop-dfs.sh来关闭服务,似乎用start的那个脚本,配置文件没有生效.原创 2016-10-16 17:46:37 · 1466 阅读 · 0 评论