大数据
文章平均质量分 52
weixin_43391069
这个作者很懒,什么都没留下…
展开
-
hbase-1.1.2的oldWALs占用过大hdfs空间问题的解决
hdfs使用一段时间后,发现空间占用很多,经查是/hbase/oldWALs占用很多,原因在最后,先上解决方法以下是我的处理流程:hadoop dfs -du -h /hbase一、先闭关hbase二、修改配置文件确保hbase-site.xml中的属性hbase.replication=false和属性hbase.backup.enable=false 如果是true就改成false,如果没有那两个属性则添加上去后重启整个hbase集群。hbase.replicationfalse原创 2021-07-24 11:02:18 · 1161 阅读 · 0 评论 -
hdfs问题2:There are 1 missing blocks. The following files may be corrupted:
hdfs问题2There are 1 missing blocks. The following files may be corrupted:![在这里插入图片描述](https://img-blog.csdnimg.cn/2021071219495295.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80MzM5MTA2O原创 2021-07-12 19:53:58 · 994 阅读 · 2 评论 -
hdfs问题1:java.io.IOException:There appears to be a gap in the edit log.We expected txid 1,but got txi
这种错误表示:该节点namenode元数据发生了损坏。需要恢复元数据以后,才能启动namenode解决:恢复一下namenodecd $HADOOP_HOME/binhadoop namenode -recover一路选择c 进行元数据的恢复.我选择的c再启动hdfs:...原创 2021-07-12 19:45:41 · 427 阅读 · 0 评论