Python笔记----关于robots.txt

import urllib.robotparser
import requests
import time

'''
使用robots.txt
'''

urls = ['http://www.baidu.com', 'http://www.jingdong.com']

# RobotFileParser():可以方便的判断哪些页面可以抓取,哪些页面不可以抓取
# urllib.robotparser.RobotFileParser(url=''),申明是也可以不传入url,用set_url()设置。
rp = urllib.robotparser.RobotFileParser()
# set_url():设置robots.txt文件的链接
rp.set_url('https://www.baidu.com/robots.txt')

# read():读取robots.txt文件并进行分析,该方法不会返回结果,但对文件进行了读取操作,
# 这一步必须调用,如果不调用,则接下来的判断均为False
rp.read()

# can_fetch()方法的第一个参数代表UA,第二个参数为要检验的网址。
# 返回值为布尔值,代表robots.txt是否允许此UA访问此网址
print(rp.can_fetch('Googlebot', 'https://www.baidu.com/baidu'))
print(rp.can_fetch('Baiduspider', 'https://www.baidu.com/cpro'))


# num_retries表示重新请求的次数,也作为请求次数的计数器
def get_data(url, num_retries=3):
    try:
        # 若请求时长超过timeout的时长,程序直接抛出超时异常,然后被异常处理机制捕捉到
        data = requests.get(url, timeout=5)
        print(data.status_code)
    except requests.exceptions.ConnectionError as e:
        print('请求错误, url: ', url)
        print('错误详情: ', e)
        data = None
    except:
        print('未知错误! url:', url)
        data = None

    if (data != None) and (500 <= data.status_code <=599):
        # 递归get_data()方法
        if num_retries > 0:
            print('服务器错误,正在重试...')
            time.sleep(1)
            num_retries -= 1
            get_data(url, num_retries)
    return data


# 要想让爬虫自动遵守robots.txt,代码如下:
def robots_check(robots_txt_url, headers, url):
    rp = urllib.robotparser.RobotFileParser()
    rp.set_url(robots_txt_url)
    rp.read()
    result = rp.can_fetch(headers['User-Agent'], url)

    return result


for url in urls:
    if robots_check(robots_txt_url, headers, url):
        data = get_data(url)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值