hadoop 3.x 案例7: hadoop大数据平台日志

一. Hadoop日志

cd $HADOOP_HOME/logs

image.png

日志分类:

  1. namenode日志

  2. datanode日志

  3. secondarynamenode日志

  4. yarn日志
    4.1 resourcemanger日志
    4.2 nodemanager日志

  5. historyServer日志

1.1 namenode日志

名称节点的日志,如果名称节点有问题,需要进行排查。一个hadoop大数据集群只有一个namenode,具体的信息可以查看配置文件

$HADOOP_HOME/etc/hadoop/core-site.xml  

image.png

1.2 datanode日志

一个hadoop大数据平台一般有多个datanode,每个datanode节点都有自己的日志。

$HADOOP_HOME/etc/hadoop/works

image.png

1.3 secondarynamenode日志

我们知道对HDFS进行读写,都需要通过namenode找到对应的datanode,如果集群节点众多且数据量非常大,那么namenode的压力是非常大的,于是诞生了secondarynamenode来分担namenode的压力。

$HADOOP_HOME/etc/hadoop/hdfs-site.xml

image.png

1.4 yarn日志

yarn图解:
image.png

1.4.1 resourcemanger日志

resourcemanger负责全局的资源管理和任务调度,把整个集群当作计算资源池,只关注分配,不管应用,且不负责容错。

$HADOOP_HOME/etc/hadoop/yarn-site.xml 

image.png

1.4.2 nodemanager日志

Node节点下的Container管理

  1. 启动时向ResourceManager注册并定时发送心跳消息,等待ResourceManger的指令

  2. 监控Container的运行,维护Container的生命周期,监控Container的资源使用情况

  3. 启动或停止container,管理任务运行时的依赖包(根据APPlicationMaster的需要,启动Container之前将需要的程序以及依赖包,配置文件等COPY到本地)

image.png

注意:
很多时候,我们需要查询nodemananger的日志,从这个地方可以看到我们的任务被分配到那个node了。
image.png

1.5 historyServer日志

当我们重启yarn后,resourcemanger就没办法查看重启前的job运行的历史记录了,此时我们需要从historyServer上查看。

$HADOOP_HOME/etc/hadoop/yarn-site.xml

image.png

image.png

二. Hive日志

Hive的日志比较特殊,$HIVE_HOME 目录是没有logs目录的,其它的组件都是有logs目录的。

Hive的日志在节点(那个节点登陆hive)的/tmp/$username 目录下

例如:

cd /tmp/root
ls
more hive.log

image.png

三. Spark日志

Spark的日志就区分 Master和worker日志

cd $SPARK_HOME/logs

image.png

四. Flink日志

Flink的日志 主要是standalone(独立部署)日志和 taskexecutor日志。
如果使用Flink SQL客户端还会有Flink SQL相关的日志。

cd $FLINK_HOME/log

image.png

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值