ambari发现正常磁盘未挂载(Datanode服务已启动)

场景  
ambari发现磁盘未挂载  
节点执行df -h 不显示/mnt/data_1
cd /mnt/data_1/正常 且目录都在
mount -a 显示目录不存在


ambari页面停止所有服务,重新对磁盘进行分区

#自动运维
rm -rf /mnt/data_1

systemctl enable lvm2-lvmetad.service
systemctl enable lvm2-lvmetad.socket
systemctl start lvm2-lvmetad.service
systemctl start lvm2-lvmetad.socket

fdisk /dev/vdb
n
p
1
<Enter>
<Enter>
t
8e
wq

pvcreate /dev/vdb1

vgcreate vgdata_1 /dev/vdb1

lvcreate -l 100%FREE -n lvdata_1 vgdata_1

mkfs.ext4 /dev/vgdata_1/lvdata_1


mkdir /mnt/data_1

mount /dev/vgdata_1/lvdata_1 /mnt/data_1


echo /dev/vgdata_1/lvdata_1 /mnt/data_1 ext4 defaults 0 0 >> /etc/fstab

df -h


mkdir -p /mnt/data_1/data

mkdir -p /mnt/data_1/logs


ln -s /mnt/data_1/logs /cy/logs

ln -s /mnt/data_1/data /cy/data

chown -R admin:admin /mnt/

chown -R admin:admin /cy/


ll /cy

启动服务 
datanode 报错:
Directory /mnt/data_1/hadoop/hdfs/data became unmounted from / . Current mount point: /mnt/data_1 . Please ensure that mounts are healthy. If the mount change was intentional, you can update the contents of /var/lib/ambari-agent/data/datanode/dfs_data_dir_mount.hist.
查看文件内容

对比正常节点内容

修改后再次启动正常

启动完毕后yarn一直告警
1/1 local-dirs have errors:  [ /mnt/data_1/hadoop/yarn/local : Cannot create directory: /mnt/data_1/hadoop/yarn/local ] 1/1 log-dirs have errors:  [ /mnt/data_1/logs/hadoop/yarn/log : Cannot create directory: /mnt/data_1/logs/hadoop/yarn/log ]

于是想到datanode的问题
正常节点这个目录

告警节点文件内容

修改后正常


数据的目录个数比硬盘挂载个数要多,目录挂载情况文件
/var/lib/ambari-agent/data/


 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值