scrapy对接selenium并设置selenium不加载图片

在 middlewares.py 文件中添加:

from selenium import webdriver
import time
from scrapy.http import HtmlResponse

class JSPageMiddleware(object):

    # 通过selenium对接scrapy实现动态页面的爬取
    def process_request(self, request, spider):
        if spider.name == 'jobbole': # 只针对特定的网页实现selenium 爬取

            self.browser.get(request.url)
            time.sleep(5)
            print('访问页面{}'.format(request.url))
            # 不要让 Downloader 再次下载,直接返回给spider
            return HtmlResponse(url=spider.browser.current_url,body=spider.browser.page_source,encoding='utf-8',request=request)

在 settings.py 文件中打开:

DOWNLOADER_MIDDLEWARES = {
    #'scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware': None,
    # 'scrapydownloadertest.middlewares.RandomUserAgentMiddleware': 543,
    'scrapydownloadertest.middlewares.JSPageMiddleware': 544,

}

在spider中配置以下代码,为了让爬虫结束的时候,关闭Chrome:


import scrapy
from selenium import webdriver
from scrapy.xlib.pydispatch import dispatcher
from scrapy import signals # scrapy的信号

class HttpbinSpider(scrapy.Spider):
    name = 'httpbin'
    allowed_domains = ['httpbin.org']
    start_urls = ['http://httpbin.org/']

    # 为了不让selenium每次请求网页都打开
    def __init__(self):
        self.browser = webdriver.Chrome()
        super(HttpbinSpider,self).__init__() # 让上一行代码属于当前类。
        dispatcher.connect(self.spider_closed,signals.spider_closed)

    def spider_closed(self,spider):
        # 当爬虫退出的时候关闭Chrome
        print('关闭selenium打开的网页')
        self.browser.quit()

    def parse(self, response):
        print(response.text)


通过劫持request发送给downloder middleware 的spider 实现对接selenium。

设置selenium 不加载图片


from selenium import webdriver


#设置selenium不加载图片,固定写法
chrome_opt = webdriver.ChromeOptions()
prefs = {'profile.managed_default_content_settings.images':2}
chrome_opt.add_experimental_option('prefs', prefs)
browser = webdriver.Chrome(chrome_options=chrome_opt)

browser.get('https://www.oschina.net/blog')

设置selenium操作cookies

'''selenium操作cookies'''

from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
# 获取所有cookies
for cookie in browser.get_cookies():
    print(cookie)

print('-'*30)

# 针对某个key获取到cookie信息
print(browser.get_cookie('PSTM'))

# 删除某个cookie
browser.delete_cookie('PSTM')

# 删除所有cookie
browser.delete_all_cookies()

设置selenium同时打开两个页面


from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com/')
# 若再打开豆瓣网,就会覆盖百度的页面
# browser.get('https://douban.com/')

# 利用JavaScript原生代码实现同时打开两个页面

browser.execute_script("window.open('https://www.douban.com/')")
获取窗口句柄

虽说打开了两个窗口,但是获取一下当前页面的url,还是会是百度:

print(browser.current_url)

控制台输出:

https://www.baidu.com/

Process finished with exit code 0

操作使切换到第二个窗口

# 查看当前句柄
print(browser.window_handles)
# 切换句柄,指向第二个窗口,即豆瓣
browser.switch_to_window(browser.window_handles[1])
# 检查一下
print(browser.current_url)

控制台输出:
['CDwindow-169F5808C8791EACD5D62597FB99AF68', 'CDwindow-DF461500B000E592D24C609BFF3E7A6E']
https://www.douban.com/

Process finished with exit code 0

在爬虫中,如果切换窗口爬虫,一定要设置selenium置于要爬取的页面。

phantomjs

  • 无界面的浏览器
  • 多进程情况下 phantomjs 性能下降严重
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值