scrapy框架下实现用户代理的随机更换功能

用户代理

User Agent,简称UA,它是一个特殊字符串头,一些网站常常通过判断 UA 来给不同的操作系统、不同的浏览器发送不同的页面,因此可能造成某些页面无法在某个浏览器中正常显示,但通过伪装 UA 可以绕过检测。

为什么需要用户代理

我们在爬虫中常常会遇到这种情况:起初爬虫正常运行,正常抓取数据,但一会就会出现比如403Forbidden这样的情况,出现这种现象是因为网站采取了反爬虫的措施,比如有的服务器会检测某个IP在单位时间内的请求次数,如果超过了某个阈值,那么服务器就会直接拒绝服务,这种情况被称作封IP。
但如果我们将IP伪装起来,让服务器无法识别我们由本机发出的请求,就可以成功防止封IP,所以这时候就用到了代理。

在middlewares.py中实现用户代理的随机更换功能

1.在github上下载可以随机切换访问头的插件点击链接
2.用cmd进行安装pip install fake-useragent
3.在middlewares.py中写入,相关代码如下

from fake_useragent import UserAgent # 引入包

class NovelUserAgentMiddleware(object):
    def __init__(self,crawler):
        super(NovelUserAgentMiddleware, self).__init__()
        self.ua = UserAgent()
        self.ua_type = crawler.setting.get("RANDOM_UA_TYPE","random") # 读取setting文件,并决定ua采用random(默认),还有ie,firefox等

    @classmethod
    def from_crawler(cls,crawler):
        return cls(crawler)

    def process_requset(self,request,spider):
        def get_ua():
            return getattr(self.ua,self.ua_type)
        print(get_ua())
        request.headers.setdefault('User-Agent',get_ua()) #更换代理

4.在setting.py文件中开启middleware

DOWNLOADER_MIDDLEWARES = {
    'novel.middlewares.NovelDownloaderMiddleware': 542, # 将原来的543改为542
}

并把之前的user-agent注释掉,之后就可以使用了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值