项目名/spiders/爬虫名.py(爬虫,实例化logger,输出日志信息):
# -*- coding: utf-8 -*-
import scrapy
import logging # 导入
# 实例化logger
logger = logging.getLogger(__name__)
class DemoSpider(scrapy.Spider):
name = 'demo' # 爬虫名
allowed_domains = ['baidu.com']
start_urls = ['http://www.baidu.com/']
def parse(self, response):
# logging.warning('日志信息') # 直接使用logging,并不会记录日志位置信息。
logger.warning('日志信息')
pass
项目名/settings.py(配置文件,配置日志):
# 。。。
LOG_LEVEL = "WARNING" # 设置日志等级。 默认debug级别
LOG_FILE = "./log.log" # 设置日志保存位置
# 。。。