python多进程记日志

缘起

工作中因为需要用到多进程并记录日志,但是遇到一系列问题导致解决了很长时间

遇到的问题

在这里插入图片描述
当我初次遇到这个问题时,网上搜索后说是序列化的问题,然后采用了一个第三方包pathos,ok成功解决了这个问题,但是带来了新的问题(进程进入挂起状态并一直挂着…程序不会终止),于是我开始尝试解决进程挂起的问题,但这也将我带入了死路…

ConcurrentRotatingFileHandler

在网上搜索多进程记录日志采用这个handler,并且windows包名为concurrent_log_handler,linux包名为cloghandler
这两个包的分别引入方式

from concurrent_log_handler import ConcurrentRotatingFileHandler
from cloghandler import ConcurrentRotatingFileHandler

下面是仿照真实代码的简化版

import time
import logging, logging.config
from concurrent_log_handler import ConcurrentRotatingFileHandler
from multiprocessing import Process, Pool
from pathos.multiprocessing import ProcessingPool, cpu_count

class A:
    def __init__(self, id):
        self.name = "zhang"
        self.id = id
        self.error_logger = initialize_logger(str(id), logger_name="error", setLevel=logging.DEBUG, formatter='%(asctime)s - %(filename)s[line:%(lineno)d] - %(levelname)s: %(message)s')


def initialize_logger(filename, setLevel=logging.INFO, formatter='%(asctime)s : %(levelname)s : %(message)s', logger_name="logger1"):
    log_path = filename + ".log"
    # _code_log_handler = ConcurrentRotatingFileHandler(log_path, "a", 1024 * 1024, 500)
    _code_log_handler = logging.FileHandler(log_path, encoding='utf-8')
    formatter = logging.Formatter(formatter)
    _code_log_handler.setFormatter(formatter)
    logger = logging.getLogger(logger_name)
    logger.setLevel(setLevel)
    logger.addHandler(_code_log_handler)
    return logger

def main(fa):
    for i in range(50):
        fa.error_logger.info(f'process: [], print: [{i}]')


if __name__ == '__main__':
    lst = []
    for i in range(1000000000000000,1000000000000005):
        lst.append(A(i))
    time1 = time.time()
    ProcessingPool(cpu_count()).map(main, (*lst,))
    print(time.time()-time1)

运行结果
程序假死,但日志文件是生成了的,但文件内并未记录任何东西。
晕死,然后开始解决程序假死问题,起初网上搜说是得用ConcurrentRotatingFileHandler包,结果还是卡死,我又怀疑是pathos和ConcurrentRotatingFileHandler不兼容的问题,结果完全错误。整整一天无果之后我开始转变思路,尝试别的方式解决。

跑通的代码

import time
import logging, logging.config
from concurrent_log_handler import ConcurrentRotatingFileHandler
from multiprocessing import Process, Pool
from pathos.multiprocessing import ProcessingPool, cpu_count

class A:
    def __init__(self, id):
        self.name = "zhang"
        self.id = id


def initialize_logger(filename, setLevel=logging.INFO, formatter='%(asctime)s : %(levelname)s : %(message)s', logger_name="logger1"):
    log_path = filename + ".log"
    _code_log_handler = ConcurrentRotatingFileHandler(log_path, "a", 1024 * 1024, 500)
    # _code_log_handler = logging.FileHandler(log_path, encoding='utf-8')
    formatter = logging.Formatter(formatter)
    _code_log_handler.setFormatter(formatter)
    logger = logging.getLogger(logger_name)
    logger.setLevel(setLevel)
    logger.addHandler(_code_log_handler)
    return logger

def main(fa):
	#  只是简单的把创建日志对象放到了这里,发现跑通了。
    fa.error_logger = initialize_logger(str(fa.id), logger_name="error", setLevel=logging.DEBUG,
                                          formatter='%(asctime)s - %(filename)s[line:%(lineno)d] - %(levelname)s: %(message)s')
    for i in range(50):
        fa.error_logger.info(f'process: [], print: [{i}]')


if __name__ == '__main__':
    lst = []
    for i in range(1000000000000000,1000000000000005):
        lst.append(A(i))
    time1 = time.time()
    ProcessingPool(cpu_count()).map(main, (*lst,))
    print(time.time()-time1)

生成结果
在这里插入图片描述
文件中内容
在这里插入图片描述

反推理原因

我怀疑是如果logger对象在多进程外创建可能进程无法自由调度。
其实如果最开始我顺着报错的地方自己推理一下可能问题一下就解决了。
在这里插入图片描述
从报错的地方可以看到,多进程内部其实会调用dump方法,可能对象内的logger对象由于某种原因无法被dump。

反思

遇到问题应该先从问题本身下手,而不是只知道百度。。。

对于最开始多进程是否要用concurrent_log_handler 包和pathos包的验证。

import time
import logging, logging.config
from concurrent_log_handler import ConcurrentRotatingFileHandler
from multiprocessing import Process, Pool
# from pathos.multiprocessing import ProcessingPool, cpu_count  已经注释

class A:
    def __init__(self, id):
        self.name = "zhang"
        self.id = id


def initialize_logger(filename, setLevel=logging.INFO, formatter='%(asctime)s : %(levelname)s : %(message)s', logger_name="logger1"):
    log_path = filename + ".log"
    # _code_log_handler = ConcurrentRotatingFileHandler(log_path, "a", 1024 * 1024, 500) 不用这个包
    _code_log_handler = logging.FileHandler(log_path, encoding='utf-8')  # 采用python自带的handler
    formatter = logging.Formatter(formatter)
    _code_log_handler.setFormatter(formatter)
    logger = logging.getLogger(logger_name)
    logger.setLevel(setLevel)
    logger.addHandler(_code_log_handler)
    return logger

def main(fa):
    fa.error_logger = initialize_logger(str(fa.id), logger_name="error", setLevel=logging.DEBUG,
                                          formatter='%(asctime)s - %(filename)s[line:%(lineno)d] - %(levelname)s: %(message)s')
    for i in range(50):
        fa.error_logger.info(f'process: [], print: [{i}]')


if __name__ == '__main__':
    lst = []
    for i in range(1000000000000000,1000000000000005):
        lst.append(A(i))
    time1 = time.time()
    Pool(16).map(main, (*lst,))
    print(time.time()-time1)

结果:
完全没问题,根本和concurrent_log_handler和pathos没有半毛钱关系。
去concurrent_log_handler官网看解释说:
这个包为 Python 的标准日志
包 (PEP 282)提供了一个额外的日志处理程序。此处理程序会将日志事件写入日志文件,
当日志文件达到特定大小时,该文件会轮换。多个进程可以安全地同时写入同一个日志文件。
如果启用,旋转日志可以被 gzip 压缩。支持 Windows 和 POSIX 系统。提供了一个可选的线程队列日志处理程序来在后台执行日志记录。

concurrent_log_handler包描述
pathos包描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python Web 项目中,多进程日志需要考虑多个进程同时写入同一个文件的问题。为了避免不同进程之间的写入操作互相干扰,可以使用 Python 标准库中的 `logging` 模块,并将日志输出到不同的文件中。 下面是一个示例代码: ```python import logging import multiprocessing import os def process_task(): # 设置日志输出格式 log_format = '%(asctime)s %(levelname)s %(processName)s %(message)s' logging.basicConfig(level=logging.INFO, format=log_format) # 获取当前进程 ID process_id = os.getpid() # 创建一个 FileHandler 对象,并指定日志输出文件 file_handler = logging.FileHandler(f'log_{process_id}.txt') file_handler.setLevel(logging.INFO) file_handler.setFormatter(logging.Formatter(log_format)) # 将 FileHandler 添加到 logger 对象中 logger = logging.getLogger() logger.addHandler(file_handler) # 写入日志信息 logger.info('This is a log message from process %d.', process_id) if __name__ == '__main__': # 创建多个进程 processes = [] for i in range(5): p = multiprocessing.Process(target=process_task) processes.append(p) p.start() # 等待所有进程完成 for p in processes: p.join() ``` 在上面的代码中,我们首先定义了一个 `process_task` 函数,该函数会在每个进程中被调用。在 `process_task` 函数中,我们首先设置了日志输出的格式,然后获取当前进程 ID,创建了一个 `FileHandler` 对象,并将其添加到 `logger` 对象中。最后,我们使用 `logger` 对象写入了一条日志信息。 在 `__main__` 函数中,我们创建了 5 个进程,并等待所有进程完成。在每个进程中,都会执行 `process_task` 函数,并将日志输出到不同的文件中。 这样,我们就可以在多进程Python Web 项目中,实现日志的并发写入了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值