【大数据开发】Hadoop启动无NameNode,报错 ulimit -a for user root

问题

之前用这hdfs好好的,然后某一天就成这个样子了,一直都不知道
在这里插入图片描述
直到某一天发现进不去50070端口,这是什么神马操作,看了一下,NameNode呢?ResourceManager呢?
查看日志:


[root@host01 hadoop]# tail -500 /usr/local/hadoop/logs/hadoop-root-namenode-host01.out
ulimit -a for user root
core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 7193
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 1024
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 7193
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

很气,开始百度,什么禁防火墙、修改hosts啊,都是什么鬼,不管用!

直到某一天,我这么干了一下
在这里插入图片描述
mmp,居然是ClickHouse在干坏事。。。。

[root@host01 hadoop]# netstat -anp|grep 9000
tcp        0      0 0.0.0.0:9000            0.0.0.0:*               LISTEN      1070/clickhouse-ser
tcp        0      0 192.168.127.101:9000    192.168.127.102:59122   TIME_WAIT   -
tcp        0      0 192.168.127.101:9000    192.168.127.103:43322   TIME_WAIT   -

在这里插入图片描述
Listen状况是Time_wait。。。。小声哔哔哔哔。。。。

解决

修改core-site.xml端口号为9001,每个节点都要修改

	<property>
		<name> fs.default.name </name>
		<value>hdfs://host01:9001</value>
		<description>指定HDFS的默认名称</description>
	</property>

大功告成
在这里插入图片描述
在这里插入图片描述
至于ResourceMannager哪里去了,这是因为我的ResourceMannager配置在另一个节点上,只需要在另一个节点单独启动yarn即可

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值