HDFS日志的查看总结

HDFS日志查看的两种方式:HDFS安装目录中的logs中和HDFS WEB UI上

HDFS安装目录中的logs中看日志

 
我们分别在master、slave1以及slave2上安装了HDFS,只是每台机器上安装的角色不一样而已。
在master安装的是NameNode和SecondaryNameNode,对应的日志为:
## 这个是NameNode对应的日志
/home/hadoop-twq/bigdata/hadoop-2.7.5/logs/hadoop-hadoop-twq-namenode-master.log
## 这个是SecondaryNameNode对应的日志
/home/hadoop-twq/bigdata/hadoop-2.7.5/logs/hadoop-hadoop-twq-secondarynamenode-master.log

  在slave1和slave2上安装的都是DataNode的角色,DataNode对应的日志文件为:

## slave1上的DataNode的日志文件
/home/hadoop-twq/bigdata/hadoop-2.7.5/logs/hadoop-hadoop-twq-datanode-slave1.log
## slave2上的DataNode的日志文件
/home/hadoop-twq/bigdata/hadoop-2.7.5/logs/hadoop-hadoop-twq-datanode-slave2.log

  NameNode和DataNode对应的日志的路径默认是在$HADOOP_HOME/logs下,即在Hadoop安装目录下的logs目录下,这个日志存放的地方可以通过$HADOOP_HOME/etc/hadoop/hadoop-env.sh中的配置HADOOP_LOG_DIR来修改,如下图:

 

 可以通过下面的配置来修改日志的存放目录:

## 将日志都放在/home/hadoop-twq/hadoop/cus/logs这个文件目录下
export HADOOP_LOG_DIR=/home/hadoop-twq/hadoop/cus/logs

  HDFS WEB UI上查看日志

这种方式只能查看HDFS的NameNode和SecondaryNameNode的日志
我们可以通过http://master:50070来访问HDFS集群。然后点击如下图
 

 

 

然后我们进入到下图

 

 

  • 第1处是HDFS的NameNode的日志
  • 第2处是HDFS的SecondaryNameNode的日志
  • 第3处是Yarn的ResourceManager的日志,这个你如果现在看不懂没关系的
当我们点击第1处的时候,可以看到下图:

 

 

这个就是NameNode的日志

转载于:https://www.cnblogs.com/tesla-turing/p/11488065.html

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我可以为您讲解Flume采集指定目录下的日志信息到HDFS系统的实验过程及总结。 实验过程: 1. 安装Hadoop和Flume 在进行实验前,需要先安装好Hadoop和Flume。可以从官方网站下载最新版本的Hadoop和Flume,并按照官方文档进行安装。 2. 编写Flume配置文件 在安装好Flume后,需要编写配置文件来指定日志信息的来源和目标位置。以下是一个示例配置文件: ``` # Name the components on this agent agent.sources = source1 agent.sinks = sink1 agent.channels = channel1 # Describe/configure the source agent.sources.source1.type = spooldir agent.sources.source1.spoolDir = /path/to/log/directory # Describe the sink agent.sinks.sink1.type = hdfs agent.sinks.sink1.hdfs.path = hdfs://localhost:9000/flume/logs agent.sinks.sink1.hdfs.filePrefix = %{hostname} agent.sinks.sink1.hdfs.fileSuffix = .log agent.sinks.sink1.hdfs.rollInterval = 60 agent.sinks.sink1.hdfs.rollSize = 0 agent.sinks.sink1.hdfs.rollCount = 0 # Use a channel which buffers events in memory agent.channels.channel1.type = memory agent.channels.channel1.capacity = 1000 agent.channels.channel1.transactionCapacity = 100 # Bind the source and sink to the channel agent.sources.source1.channels = channel1 agent.sinks.sink1.channel = channel1 ``` 在以上配置中,我们使用`spooldir`作为Flume的source,它可以监控指定目录下的文件,当文件发生变化时,Flume会自动将文件内容读取到内存中,并发送到指定的sink。在此示例中,我们使用HDFS作为sink,将读取到的日志信息写入到指定的HDFS路径中。其中,`%{hostname}`会自动被替换为当前主机的名称,`.log`为文件的后缀名。 3. 启动Flume agent 在完成配置文件编写后,可以使用以下命令启动Flume agent: ``` $ flume-ng agent --conf-file /path/to/flume.conf --name agent -Dflume.root.logger=INFO,console ``` 其中,`/path/to/flume.conf`为配置文件的路径,`agent`为agent的名称,`-Dflume.root.logger=INFO,console`用于指定日志输出的级别和位置。 4. 查看HDFS中的日志信息 在启动Flume agent后,它会自动将指定目录下的日志信息写入到HDFS中。可以使用以下命令查看HDFS中的日志信息: ``` $ hdfs dfs -cat /flume/logs/* ``` 以上命令会列出HDFS中所有以`.log`为后缀名的文件,并将文件内容输出到终端。 总结: 通过以上实验,我们可以看到Flume的强大功能,它能够自动监控指定目录下的文件,将文件内容写入到指定的sink中。这使得我们能够轻松地将日志信息等数据写入到HDFS中,并进行后续的数据分析处理。同时,Flume的配置文件也十分灵活,可以根据实际需求进行修改。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值