scrapy集成selenium

1.首先要明确scrapy的流程spider将request发给downloader middleware去下载,然后后者再将response交还给spider去解析。
2.因此,在middleware收到request之后,可以不用直接去下载,而使用selenium.webdriver去下载,然后返回response,这涉及到一个模块scrapy.http.HtmlResponse.
3.同时,关于如何关闭chrome,涉及到信号问题,即scrapy closed 的时候,browser quit。scrapy.signals 模块,scrapy.xlib.pydispatch.dispatch函数
4.对于parse,可以用更有效率的scrapy.selector. S=scrapy.selector(text=browser.page_sourse/response)
5.browser.execute_script(‘windows.scrollTo(0,document.body.scrollHeight);var lenOfPage=document.body.scrollHeight;return lenOfPage;’)完成鼠标下拉
5.不加载图片
在这里插入图片描述
6.chrome在无界面情况下使用,首先pip install pyvirtualdisplay

在这里插入图片描述

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值