【spark】本地开发关闭日志打印


前言

1.txt

hello world
def main(args: Array[String]): Unit = {
    val spark = SparkSession
      .builder
      .master("local")
      .appName("wordCount")
      .getOrCreate()

    val value = spark.sparkContext.textFile("data/wordcount/1.txt")
      .flatMap(w => w.split(" ")).map((_, 1)).reduceByKey(_ + _);
    value.collect.foreach(println);
  }

执行时,很多日志打印,很乱,这些日志一般不需要看的。想要寻找想要的信息,翻来翻去翻半天。
在这里插入图片描述

接下来关闭这些日志的打印

1.新建log4j.properties

在resource目录下新建log4j.properties文件。
代码如下(填写):

log4j.rootCategory=ERROR, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd
HH:mm:ss} %p %c{1}: %m%n
# Set the default spark-shell log level to ERROR. When running the spark-shell,
the
# log level for this class is used to overwrite the root logger's log level, so
that
# the user can have different defaults for the shell and regular Spark apps.
log4j.logger.org.apache.spark.repl.Main=ERROR
# Settings to quiet third party logs that are too verbose
log4j.logger.org.spark_project.jetty=ERROR
log4j.logger.org.spark_project.jetty.util.component.AbstractLifeCycle=ERROR
log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=ERROR
log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=ERROR
log4j.logger.org.apache.parquet=ERROR
log4j.logger.parquet=ERROR
# SPARK-9183: Settings to avoid annoying messages when looking up nonexistent
UDFs in SparkSQL with Hive support
log4j.logger.org.apache.hadoop.hive.metastore.RetryingHMSHandler=FATAL
log4j.logger.org.apache.hadoop.hive.ql.exec.FunctionRegistry=ERROR 

注意目录位置,目录错了 就没作用了。
在这里插入图片描述

新建完成之后,再次请求,如下:
在这里插入图片描述

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
Windows 10是一种操作系统,可以用于开发和测试Hadoop和Spark的本地环境。 要在Windows 10上进行Hadoop和Spark开发和测试,我们可以使用一些工具和软件。 首先,我们可以使用Hadoop和Spark的官方网站提供的二进制文件来安装它们。我们需要下载和安装Hadoop的二进制文件,然后配置Hadoop的环境变量。在Hadoop安装完成后,我们还需要配置Hadoop的核心配置文件,例如hadoop-env.sh和core-site.xml。 接下来,我们可以下载和安装Spark的二进制文件,并将其配置为与Hadoop协同工作。我们需要在Spark的配置文件中指定Hadoop的路径。我们还可以配置Spark的一些其他设置,例如内存分配和并行度等。 在安装和配置Hadoop和Spark之后,我们可以使用本地模式或伪分布式模式来进行开发和测试。本地模式是指将数据存储在本地文件系统上,并且不涉及集群。这使我们可以快速的进行开发和测试,但不适合处理大规模的数据。 伪分布式模式是指将数据存储在Hadoop的分布式文件系统(HDFS)上,并在本机上模拟一个分布式环境。这样,我们可以模拟真实环境的数据处理和分布式计算。在伪分布式模式下,我们可以运行Hadoop的各种任务和Spark的作业,以测试它们的性能和可靠性。 总之,使用Windows 10可以在本地开发和测试Hadoop和Spark环境。我们需要下载和安装Hadoop和Spark的二进制文件,并进行适当的配置。然后,我们可以在本地模式或伪分布式模式下进行开发和测试。这样,我们可以在一个便捷和可控的环境中进行Hadoop和Spark开发和测试,以满足我们的需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

叁滴水

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值