scrapy - 在spider中添加自己log函数

本文介绍了如何在Scrapy爬虫项目中添加自定义的日志函数,以实现个性化报告,包括针对不同爬取分支的独立日志文件,自定义报告等级,以及一个接收三个参数的函数来实现这一功能。代码实现简单,适合作为记录和调试的文件记录手段。
摘要由CSDN通过智能技术生成

前言

scrapy框架提供了一些报告等级,但是要做到在爬取过程中实现自己的个性化报告方式,还是要自行添加log函数。

分析

需求:

  1. 在一个spider项目中,涉及十数个分支的爬取,希望存储到不同的log文件下。
  2. 可以拥有自定义的报告等级,例如区分是主页还是分支页产生的报告。
  3. 自定义报告信息

综上,应该是一个拥有三个输入参数的函数。

代码实现

具体的代码实现很简单,以下是作为spider中的一个类方法的代码:

	# 在定义类前引入time库
    import time

	# 这里应该作为全局变量
    spider_log_path = './log.log'    # spider 等级日志路径
    infobase_dir_path = './Infobase'  # parse 等级日志路径头
    path_title_list =
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值