第三章 将 selenium集成到scrapy中


1.这里是jobbole的spider中的代码
class JobboleSpider(scrapy.Spider):
    name = "jobbole"
    allowed_domains = ["python.jobbole.com"]
    start_urls = ['http://python.jobbole.com/all-posts/']

    # 自定义设置
    custom_settings = {
        "DOWNLOAD_DELAY": 2,
    }

    def __init__(self):
        # 通过selenium启动一个chrome浏览器
        # 将webdriver放到spider中可以达到更好的并发效果,也可以在爬虫结束时关闭 Chrome
        self.brower = webdriver.Chrome(executable_path=r"C:\scrapy\resource\chromedriver.exe")
        super(JobboleSpider, self).__init__()
        dispatcher.connect(self.close_brower, signals.spider_closed)
    
    def close_brower(self):
        # 当爬虫退出的时候关闭chrome
        print("spider_closed close_brower")
        self.brower.quit()


2.这里是middlewares.py中的代
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,您可以按照以下步骤使用scrapyselenium爬取考研信息并保存到csv: 1. 安装scrapyselenium库,并下载相应浏览器的驱动器。例如,如果您使用的是Chrome浏览器,则需要下载chrome driver并添加到环境变量。 2. 创建一个scrapy项目,并在settings.py添加selenium middleware。 3. 创建一个spider,使用selenium库打开浏览器,并在浏览器模拟用户操作,例如输入搜索关键词,点击搜索按钮等。 4. 使用selenium库获取数据,例如爬取网页源代码或者特定元素的文本。 5. 处理数据,例如提取所需信息并保存到本地文件或数据库。这里我们选择将数据保存到csv。 下面是一个示例代码,用于在“研招网”上搜索“计算机”相关考研信息并将相关信息保存到csv: 1. 在settings.py添加selenium middleware ```python DOWNLOADER_MIDDLEWARES = { 'myproject.middlewares.SeleniumMiddleware': 543, } ``` 2. 创建一个spider ```python import csv from scrapy import Spider from scrapy.selector import Selector from myproject.items import ExamInfoItem from scrapy.http import Request from selenium import webdriver from scrapy.xlib.pydispatch import dispatcher from scrapy import signals class ExamSpider(Spider): name = "exam" allowed_domains = ["yz.chsi.com.cn"] start_urls = ( 'https://yz.chsi.com.cn/zsml/queryAction.do', ) def __init__(self): self.driver = webdriver.Chrome() dispatcher.connect(self.spider_closed, signals.spider_closed) def spider_closed(self, spider): self.driver.quit() def parse(self, response): self.driver.get(response.url) # 输入搜索关键词并点击搜索按钮 search_box = self.driver.find_element_by_name("mldm") search_box.send_keys("0852") search_button = self.driver.find_element_by_class_name("searchbtn") search_button.click() # 爬取相关内容并保存到csv result_box = self.driver.find_element_by_id("resultTable") result_items = result_box.find_elements_by_tag_name("tr") with open('exam_info.csv', 'w', encoding='utf-8', newline='') as f: writer = csv.writer(f) for item in result_items: row = item.text.split() writer.writerow(row) # 爬取其他页面的信息 # ... self.driver.quit() ``` 3. 创建一个item ```python from scrapy import Item, Field class ExamInfoItem(Item): # 考试名称 exam_name = Field() # 考试时间 exam_time = Field() # 考试地点 exam_location = Field() # 考试科目 exam_subject = Field() # 考试类型 exam_type = Field() # 考试报名时间 exam_reg_time = Field() # 考试报名费用 exam_reg_fee = Field() # 考试网址 exam_website = Field() ``` 注意:在使用selenium时请遵守网站的爬取规则,不要过度频繁地访问同一网站,以免被封禁IP。另外,注意对csv文件的编码和换行符的处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值