关注微信公众号【BigData512】,了解更多大数据技术,还有免费资料等你哦
Flink 日志框架
Flink 1.11之前,Flink 使用的日志框架是 Log4j,配置信息在 flink/conf/log4j.properties 中。配置文件会将 JobManager 和 TaskManager 的日志分别打印在不同的文件中。Flink 1.11.1 版本对 UI 进行了优化,会将JobManager 和 TaskManager 的日志都打印在一个文件里面,但任务跑时间长的话,日志文件会非常大,查看日志页面时出现卡顿的情况,所以可以对 Flink 的日志做一个滚动的配置。如果想把日志信息实时存入到kafka,es等存储介质也是可以的,本文将详细介绍Flink日志的基本使用方式和滚动配置。
<
本文介绍了Flink 1.11之前和1.11版本的日志框架配置,包括Log4j和Log4j2的使用。讨论了如何配置日志存储介质如Kafka、Elasticsearch,以及解决日志卡顿和冲突问题的方法。还涵盖了slf4j的基础概念和日志选择策略。

订阅专栏 解锁全文
2015

被折叠的 条评论
为什么被折叠?



