Hadoop的默认日志级别为INFO,Hadoop使用的是log4j记录日志,如果去修改${HADOOP_HOME}/etc/hadoop/log4j.propertie
,会被系统环境变量所覆盖,所以即使修改了这里的配置,重启也会无法生效。
# Define some default values that can be overridden by system properties
#定义一些可以被系统属性覆盖的默认值
hadoop.root.logger=WARN,console
所以就重HDFS的环境变量配置文件中下手,修改hadoop-env.sh
,添加修改如下变量,如果没有此变量就添加即可,有的话就将INFO
修改为需设定的日志级别。
export HADOOP_NAMENODE_OPTS="-Xmx30720m -Dhadoop.security.logger=${HADOOP_SECURITY_LOGGER:-WARN,RFAS} -Dhdfs.audit.logger=${HDFS_AUDIT_LOGGER:-WARN,NullAppender} $HADOOP_NAMENODE_OPTS"
如果为Apache单服务集群还需要修改${HADOOP_HOME}/sbin/hadoop-daemon.sh
export HADOOP_ROOT_LOGGER=${HADOOP_ROOT_LOGGER:-"WARN,RFA"}
重启服务即可,观察日志情况。