Hadoop动态调整日志级别

Hadoop 动态调整日志级别

hadoop 线上基础服务 ResourceManager,线上排查问题,不能直接重启调整日志级别,hadoop给我们提供了动态修改类日志级别的方式。可以指定某个类调整,调整这个类的日志级别。前提对出现问题的地方有个大概的定位,大概是哪个类的逻辑有问题,因此要对hadoop 代码相对较熟悉。

通过Yarn命令行调整日志级别

拿ResourceManager类举例子

#ResourceManager
yarn daemonlog -setlevel <host:httpport>  org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler INFO

yarn daemonlog -getlevel <host:httpport> org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler
#NameNode
 hadoop daemonlog -getlevel {namenode_host}:50070 BlockStateChange
 hadoop daemonlog -setlevel {namenode_host}:50070 BlockStateChange DEBUG 

说明:
host:ResourceManager host
httpport:ResourceManager web ui port

通过YarnWebUI调整日志级别

yarn 也提供了基于ui的方式设置,和命令行的方式一致

http://host:httpport/logLevel

说明:
host:ResourceManager host
httpport:ResourceManager web ui port

页面截图:
在这里插入图片描述

源码实现

实现了一个servelet,调用相关log实现的代码,关键代码

Log log = LogFactory.getLog(logName);
 log.setLevel(org.apache.log4j.Level.toLevel(level));```
       

完整代码:

/**
 * Licensed to the Apache Software Foundation (ASF) under one
 * or more contributor license agreements.  See the NOTICE file
 * distributed with this work for additional information
 * regarding copyright ownership.  The ASF licenses this file
 * to you under the Apache License, Version 2.0 (the
 * "License"); you may not use this file except in compliance
 * with the License.  You may obtain a copy of the License at
 *
 *     http://www.apache.org/licenses/LICENSE-2.0
 *
 * Unless required by applicable law or agreed to in writing, software
 * distributed under the License is distributed on an "AS IS" BASIS,
 * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
 * See the License for the specific language governing permissions and
 * limitations under the License.
 */
package org.apache.hadoop.log;

import java.io.*;
import java.net.*;
import java.util.regex.Pattern;

import javax.servlet.*;
import javax.servlet.http.*;

import com.google.common.base.Charsets;
import org.apache.commons.logging.*;
import org.apache.commons.logging.impl.*;
import org.apache.hadoop.classification.InterfaceAudience;
import org.apache.hadoop.classification.InterfaceStability;
import org.apache.hadoop.http.HttpServer2;
import org.apache.hadoop.util.ServletUtil;

/**
 * Change log level in runtime.
 */
@InterfaceStability.Evolving
public class LogLevel {
  public static final String USAGES = "\nUsage: General options are:\n"
      + "\t[-getlevel <host:httpPort> <name>]\n"
      + "\t[-setlevel <host:httpPort> <name> <level>]\n";

  /**
   * A command line implementation
   */
  public static void main(String[] args) {
    if (args.length == 3 && "-getlevel".equals(args[0])) {
      process("http://" + args[1] + "/logLevel?log=" + args[2]);
      return;
    }
    else if (args.length == 4 && "-setlevel".equals(args[0])) {
      process("http://" + args[1] + "/logLevel?log=" + args[2]
              + "&level=" + args[3]);
      return;
    }

    System.err.println(USAGES);
    System.exit(-1);
  }

  private static void process(String urlstring) {
    try {
      URL url = new URL(urlstring);
      System.out.println("Connecting to " + url);
      URLConnection connection = url.openConnection();
      connection.connect();

      BufferedReader in = new BufferedReader(new InputStreamReader(
          connection.getInputStream(), Charsets.UTF_8));
      for(String line; (line = in.readLine()) != null; )
        if (line.startsWith(MARKER)) {
          System.out.println(TAG.matcher(line).replaceAll(""));
        }
      in.close();
    } catch (IOException ioe) {
      System.err.println("" + ioe);
    }
  }

  static final String MARKER = "<!-- OUTPUT -->";
  static final Pattern TAG = Pattern.compile("<[^>]*>");

  /**
   * A servlet implementation
   */
  @InterfaceAudience.LimitedPrivate({"HDFS", "MapReduce"})
  @InterfaceStability.Unstable
  public static class Servlet extends HttpServlet {
    private static final long serialVersionUID = 1L;

    @Override
    public void doGet(HttpServletRequest request, HttpServletResponse response
        ) throws ServletException, IOException {

      // If user is a static user and auth Type is null, that means
      // there is a non-security environment and no need authorization,
      // otherwise, do the authorization.
      final ServletContext servletContext = getServletContext();
      if (!HttpServer2.isStaticUserAndNoneAuthType(servletContext, request) &&
          !HttpServer2.hasAdministratorAccess(servletContext,
              request, response)) {
        return;
      }

      PrintWriter out = ServletUtil.initHTML(response, "Log Level");
      String logName = ServletUtil.getParameter(request, "log");
      String level = ServletUtil.getParameter(request, "level");

      if (logName != null) {
        out.println("<br /><hr /><h3>Results</h3>");
        out.println(MARKER
            + "Submitted Log Name: <b>" + logName + "</b><br />");

        Log log = LogFactory.getLog(logName);
        out.println(MARKER
            + "Log Class: <b>" + log.getClass().getName() +"</b><br />");
        if (level != null) {
          out.println(MARKER + "Submitted Level: <b>" + level + "</b><br />");
        }

        if (log instanceof Log4JLogger) {
          process(((Log4JLogger)log).getLogger(), level, out);
        }
        else if (log instanceof Jdk14Logger) {
          process(((Jdk14Logger)log).getLogger(), level, out);
        }
        else {
          out.println("Sorry, " + log.getClass() + " not supported.<br />");
        }
      }

      out.println(FORMS);
      out.println(ServletUtil.HTML_TAIL);
    }

    static final String FORMS = "\n<br /><hr /><h3>Get / Set</h3>"
        + "\n<form>Log: <input type='text' size='50' name='log' /> "
        + "<input type='submit' value='Get Log Level' />"
        + "</form>"
        + "\n<form>Log: <input type='text' size='50' name='log' /> "
        + "Level: <input type='text' name='level' /> "
        + "<input type='submit' value='Set Log Level' />"
        + "</form>";

    private static void process(org.apache.log4j.Logger log, String level,
        PrintWriter out) throws IOException {
      if (level != null) {
        if (!level.equalsIgnoreCase(org.apache.log4j.Level.toLevel(level)
            .toString())) {
          out.println(MARKER + "Bad Level : <b>" + level + "</b><br />");
        } else {
          log.setLevel(org.apache.log4j.Level.toLevel(level));
          out.println(MARKER + "Setting Level to " + level + " ...<br />");
        }
      }
      out.println(MARKER
          + "Effective Level: <b>" + log.getEffectiveLevel() + "</b><br />");
    }

    private static void process(java.util.logging.Logger log, String level,
        PrintWriter out) throws IOException {
      if (level != null) {
        String levelToUpperCase = level.toUpperCase();
        try {
          log.setLevel(java.util.logging.Level.parse(levelToUpperCase));
        } catch (IllegalArgumentException e) {
          out.println(MARKER + "Bad Level : <b>" + level + "</b><br />");
        }
        out.println(MARKER + "Setting Level to " + level + " ...<br />");
      }

      java.util.logging.Level lev;
      for(; (lev = log.getLevel()) == null; log = log.getParent());
      out.println(MARKER + "Effective Level: <b>" + lev + "</b><br />");
    }
  }
}

LOG框架设置日志级别的方式

#Log4j2
LoggerContext loggerContext = (LoggerContext) LogManager.getContext(false);
LoggerConfig loggerConfig = loggerContext.getConfiguration().getLoggers().get("root");
loggerConfig.setLevel(level);
#Logback
LoggerContext loggerContext = (LoggerContext) LoggerFactory.getILoggerFactory();
Logger logger = loggerContext.getLogger("root");
((ch.qos.logback.classic.Logger) logger).setLevel(level);
#Java Util Logging
Logger logger = Logger.getLogger("root");
logger.setLevel(level);

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Hadoop是一个开源的分布式计算平台,用于存储和处理大数据集。以下是Hadoop安装的详细步骤: 1. 下载Hadoop安装包 前往Hadoop官方网站下载最新版本的Hadoop安装包。 2. 安装Java Hadoop是基于Java开发的,因此需要先安装Java。可以通过以下命令检查是否已安装Java: ``` java -version ``` 如果没有安装Java或版本过低,则需前往Java官方网站下载并安装。 3. 配置SSH Hadoop需要使用SSH来在不同的节点之间进行通信。首先需要生成SSH密钥: ``` ssh-keygen -t rsa -P "" ``` 然后将公钥添加到所有节点的`authorized_keys`文件中: ``` cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys ``` 4. 配置HadoopHadoop安装包解压到指定目录,然后进入Hadoop的配置目录: ``` cd /path/to/hadoop/etc/hadoop ``` 在该目录下有很多配置文件,下面是一些常用的配置参数: - `core-site.xml`:配置Hadoop的核心参数,如文件系统和端口号等。 - `hdfs-site.xml`:配置Hadoop分布式文件系统(HDFS)的参数。 - `mapred-site.xml`:配置MapReduce作业的参数。 - `yarn-site.xml`:配置YARN资源管理器的参数。 配置文件的具体参数可以在官方文档中找到。 5. 启动HadoopHadoop的安装目录下,使用以下命令启动Hadoop: ``` sbin/start-all.sh ``` 该命令将启动HDFS和YARN,可以通过以下命令检查它们的状态: ``` jps ``` 如果成功启动,将会看到如下输出: ``` NameNode DataNode SecondaryNameNode ResourceManager NodeManager ``` 6. 测试Hadoop 可以使用Hadoop自带的例子程序来测试Hadoop是否正常工作。例如,使用以下命令运行WordCount程序: ``` bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount input output ``` 其中,`input`为输入文件夹,`output`为输出文件夹。程序运行成功后,可以在`output`文件夹中找到结果文件。 以上就是Hadoop安装的详细步骤。 ### 回答2: Hadoop是一个开源的分布式计算框架,用于存储和处理大规模数据集。以下是Hadoop安装的详细步骤: 1. 下载Hadoop软件包:访问Hadoop官方网站( https://hadoop.apache.org/ ),选择适合你操作系统的最新版本Hadoop软件包,并从该网站下载到你的计算机中。 2. 解压Hadoop软件包:将下载的Hadoop软件包存放到一个合适的目录中,然后解压缩该软件包。你可以使用命令行工具(如tar命令)或文件解压缩软件来完成此操作。 3. 配置Hadoop环境变量:打开Hadoop软件包所在目录,并找到bin目录中的hadoop-env.sh文件。使用文本编辑器打开该文件,并设置JAVA_HOME变量为你计算机上Java的安装路径。 4. 配置Hadoop核心文件:进入解压缩后的Hadoop目录,并找到etc/hadoop目录。这个目录中包含了Hadoop的配置文件。主要的配置文件包括core-site.xml、hdfs-site.xml和mapred-site.xml。你可以使用文本编辑器打开这些文件,并根据你的需求进行配置。 5. 配置Hadoop节点:Hadoop是一个分布式的计算框架,因此需要配置多个节点。在etc/hadoop目录中,找到slaves文件,并使用文本编辑器打开该文件。在该文件中,列出你希望作为Hadoop节点的计算机的名称或IP地址。 6. 格式化Hadoop文件系统:在Hadoop的bin目录中,找到hadoop命令,并使用以下命令格式化Hadoop文件系统:hadoop namenode -format 7. 启动Hadoop集群:使用以下命令启动Hadoop集群:start-dfs.sh和start-yarn.sh。这将启动Hadoop的分布式文件系统和资源管理器。 8. 验证Hadoop安装:打开web浏览器,然后访问http://localhost:50070,查看Hadoop的管理界面。如果一切正常,你将能够看到Hadoop的集群相关的信息。 以上是Hadoop安装的详细步骤。请注意,这仅涵盖了基本的安装过程,实际安装中可能会有额外的配置和调整。 ### 回答3: Hadoop是一个开源的分布式计算框架,常用于大规模数据的处理和分析。下面是Hadoop安装的详细步骤: 1. 下载Hadoop:首先需要从Apache官方网站下载Hadoop的安装包。根据操作系统和版本的需求选择合适的版本进行下载。 2. 安装Java开发工具包(JDK):由于Hadoop是使用Java编写的,所以在安装Hadoop之前,需要先安装JDK。确保JDK已经正确安装并设置好环境变量。 3. 配置Hadoop集群:创建一个新的用户组和用户,用于运行Hadoop的所有进程。在本地计算机上创建一个新的目录,用于存储Hadoop的各种文件。 4. 配置Hadoop环境变量:编辑“/etc/profile”文件并添加Hadoop的环境变量,如JAVA_HOME、HADOOP_HOME、PATH等。 5. 配置Hadoop的核心文件:修改Hadoop的核心配置文件,如“core-site.xml”中的配置项,设置Hadoop的默认文件系统为HDFS。 6. 配置Hadoop的HDFS文件系统:修改“hdfs-site.xml”文件,设置Hadoop的HDFS存储路径和副本数量等参数。 7. 配置Hadoop的MapReduce框架:编辑“mapred-site.xml”文件,设置MapReduce框架的配置参数,如资源调度、任务分配等。 8. 配置Hadoop的YARN资源管理器:对于Hadoop 2.x及以上版本,配置“yarn-site.xml”文件,设置YARN的资源管理器和节点管理器等。 9. 配置Hadoop日志记录:编辑“hadoop-env.sh”文件,设置日志记录的级别或目录等参数。 10. 格式化HDFS:在执行Hadoop集群之前,需要先格式化HDFS,以创建初始的HDFS目录结构。 11. 启动Hadoop集群:使用启动脚本启动Hadoop集群,包括HDFS、YARN和其他必要的进程。 12. 验证Hadoop安装:通过访问Hadoop的web界面或使用Hadoop自带的命令行工具,验证Hadoop集群是否成功安装并运行。 以上是Hadoop安装的详细步骤。在进行安装过程中,可以参考官方文档和安装手册,根据具体需求进行调整和配置。此外,可以参考一些在线教程和视频教程来更好地理解和掌握Hadoop的安装过程。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值