使用log4j将spark on yarn任务的日志发送到kafka
1.将spark streaming以yarn cluster运行后,查看日志是一件比较麻烦的事情。需要停止任务,再用yarn log命令收集。而这无疑违背了实时程序7-24运行的原则。2.在我搜索解决方法时,发现可以使用kafka-log4j-appender将日志发送到kafka的主题在maven引入依赖 <dependency> <groupId>org.apache.kafka</groupId>









