Scrapy实战篇(七)之Scrapy配合Selenium爬取京东商城信息(下)

之前我们使用了selenium加Firefox作为下载中间件来实现爬取京东的商品信息。但是在大规模的爬取的时候,Firefox消耗资源比较多,因此我们希望换一种资源消耗更小的方法来爬取相关的信息。
下面就使用selenium加PhantomJS来实现之前的相同的逻辑。

这里需要修改的就是spider.py文件,其余的部分并不需要做出修改,我们给phantomjs添加一个User-Agent信息,并且设置不加载图片,这样将会加快渲染的速度。

spider.py

from scrapy import Spider,Request
from selenium import webdriver


class JingdongSpider(Spider):
    name = 'jingdong'

    def __init__(self):

        SERVICE_ARGS = ['--load-images=false', '--disk-cache=true', '--ignore-ssl-errors=true']
        self.browser = webdriver.PhantomJS(service_args=SERVICE_ARGS)
        self.browser.set_page_load_timeout(30)

    def closed(self,spider):
        print("spider closed")
        self.browser.close()

    def start_requests(self):
        start_urls = ['https://search.jd.com/Search?keyword=%E6%96%87%E8%83%B8&enc=utf-8&qrst=1&rt=1&stop=1&vt=2&suggest=1.his.0.0&page={}&s=1&click=0'.format(str(i)) for i in range(1,10,2)]
        for url in start_urls:
            yield Request(url=url, callback=self.parse)


    def parse(self, response):
        selector = response.xpath('//ul[@class="gl-warp clearfix"]/li')
        print(len(selector))
        print('---------------------------------------------------')

执行程序,效果是一样的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,您可以按照以下步骤使用scrapyselenium爬取考研信息并保存到csv中: 1. 安装scrapyselenium库,并下载相应浏览器的驱动器。例如,如果您使用的是Chrome浏览器,则需要下载chrome driver并添加到环境变量中。 2. 创建一个scrapy项目,并在settings.py中添加selenium middleware。 3. 创建一个spider,使用selenium库打开浏览器,并在浏览器中模拟用户操作,例如输入搜索关键词,点击搜索按钮等。 4. 使用selenium库获取数据,例如爬取网页源代码或者特定元素的文本。 5. 处理数据,例如提取所需信息并保存到本地文件或数据库中。这里我们选择将数据保存到csv中。 下面是一个示例代码,用于在“研招网”上搜索“计算机”相关考研信息并将相关信息保存到csv中: 1. 在settings.py中添加selenium middleware ```python DOWNLOADER_MIDDLEWARES = { 'myproject.middlewares.SeleniumMiddleware': 543, } ``` 2. 创建一个spider ```python import csv from scrapy import Spider from scrapy.selector import Selector from myproject.items import ExamInfoItem from scrapy.http import Request from selenium import webdriver from scrapy.xlib.pydispatch import dispatcher from scrapy import signals class ExamSpider(Spider): name = "exam" allowed_domains = ["yz.chsi.com.cn"] start_urls = ( 'https://yz.chsi.com.cn/zsml/queryAction.do', ) def __init__(self): self.driver = webdriver.Chrome() dispatcher.connect(self.spider_closed, signals.spider_closed) def spider_closed(self, spider): self.driver.quit() def parse(self, response): self.driver.get(response.url) # 输入搜索关键词并点击搜索按钮 search_box = self.driver.find_element_by_name("mldm") search_box.send_keys("0852") search_button = self.driver.find_element_by_class_name("searchbtn") search_button.click() # 爬取相关内容并保存到csv中 result_box = self.driver.find_element_by_id("resultTable") result_items = result_box.find_elements_by_tag_name("tr") with open('exam_info.csv', 'w', encoding='utf-8', newline='') as f: writer = csv.writer(f) for item in result_items: row = item.text.split() writer.writerow(row) # 爬取其他页面的信息 # ... self.driver.quit() ``` 3. 创建一个item ```python from scrapy import Item, Field class ExamInfoItem(Item): # 考试名称 exam_name = Field() # 考试时间 exam_time = Field() # 考试地点 exam_location = Field() # 考试科目 exam_subject = Field() # 考试类型 exam_type = Field() # 考试报名时间 exam_reg_time = Field() # 考试报名费用 exam_reg_fee = Field() # 考试网址 exam_website = Field() ``` 注意:在使用selenium时请遵守网站的爬取规则,不要过度频繁地访问同一网站,以免被封禁IP。另外,注意对csv文件的编码和换行符的处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值