下图是 是PySpark shell 启动时的样子。
如果觉得shell 中输出的日志信息过多而使人分心,可以调整日志的级别来控制输出的信
息量。
你需要在conf 目录下创建一个名为log4j.properties 的文件来管理日志设置。Spark
开发者们已经在Spark 中加入了一个日志设置文件的模版,叫作log4j.properties.template。
要让日志看起来不那么啰嗦,可以先把这个日志设置模版文件复制一份到conf/log4j.
properties 来作为日志设置文件,接下来找到下面这一行:
log4j.rootCategory=INFO, console
然后通过下面的设定降低日志级别,只显示警告及更严重的信息:
log4j.rootCategory=WARN, console
这时再打开shell,你就会看到输出大大减少
同样的 scala shell 也适用
PySpark shell 修改log4j.properties Spark日志调整
最新推荐文章于 2022-03-25 15:56:19 发布