scrapy 对接 selenium 爬取京东ipad商品信息并存到mongoDB数据库中

爬取京东所有有关ipad的商品信息, 在搜索栏中输入iPad 点击搜索来到以下页面
在这里插入图片描述
接下来我们分析商品每页的url
这是第二页的url : https://search.jd.com/Searchkeyword=ipad&qrst=1&suggest=1.his.0.0&wq=ipad&ev=exbrand_Apple%5E&page=3&s=56&click=0
我们把多余的参数去掉 换成如下的格式:
https://search.jd.com/Searchkeyword=ipad&page=3 也能访问该页面,接下来就简单了只需要改变参数page的值就可以得到所有页面的url, 然后用selenium模拟浏览器发送请求就可以得到商品的各种信息再调用parse函数解析我们想要的信息。
代码实现:
spiders.py

import scrapy
from TaobaoPro.items import TaobaoproItem

class TaobaoSpider(scrapy.Spider):
    name = 'taobao'
    # allowed_domains = ['www.xxx.com']
    start_urls = ['https://search.jd.com/Search?keyword=ipad']
    for i in range(1,13):
        url = 'https://search.jd.com/Search?keyword=ipad&page={}'.format(2*i-1)#把我们要爬取的页面添加到start_urls中
        start_urls.append(url)

    def parse(self, response):
        print(response.url)#打印出我们所要爬取的页面
        # href = 'https:' + response.xpath('//div[@id="J_goodsList"]/ul/li[1]/div/div/a/@href').extract_first()
        # print(href)
        li_list = response
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,您可以按照以下步骤使用scrapyselenium爬取考研信息并保存到csv: 1. 安装scrapyselenium库,并下载相应浏览器的驱动器。例如,如果您使用的是Chrome浏览器,则需要下载chrome driver并添加到环境变量。 2. 创建一个scrapy项目,并在settings.py添加selenium middleware。 3. 创建一个spider,使用selenium库打开浏览器,并在浏览器模拟用户操作,例如输入搜索关键词,点击搜索按钮等。 4. 使用selenium库获取数据,例如爬取网页源代码或者特定元素的文本。 5. 处理数据,例如提取所需信息并保存到本地文件或数据库。这里我们选择将数据保存到csv。 下面是一个示例代码,用于在“研招网”上搜索“计算机”相关考研信息并将相关信息保存到csv: 1. 在settings.py添加selenium middleware ```python DOWNLOADER_MIDDLEWARES = { 'myproject.middlewares.SeleniumMiddleware': 543, } ``` 2. 创建一个spider ```python import csv from scrapy import Spider from scrapy.selector import Selector from myproject.items import ExamInfoItem from scrapy.http import Request from selenium import webdriver from scrapy.xlib.pydispatch import dispatcher from scrapy import signals class ExamSpider(Spider): name = "exam" allowed_domains = ["yz.chsi.com.cn"] start_urls = ( 'https://yz.chsi.com.cn/zsml/queryAction.do', ) def __init__(self): self.driver = webdriver.Chrome() dispatcher.connect(self.spider_closed, signals.spider_closed) def spider_closed(self, spider): self.driver.quit() def parse(self, response): self.driver.get(response.url) # 输入搜索关键词并点击搜索按钮 search_box = self.driver.find_element_by_name("mldm") search_box.send_keys("0852") search_button = self.driver.find_element_by_class_name("searchbtn") search_button.click() # 爬取相关内容并保存到csv result_box = self.driver.find_element_by_id("resultTable") result_items = result_box.find_elements_by_tag_name("tr") with open('exam_info.csv', 'w', encoding='utf-8', newline='') as f: writer = csv.writer(f) for item in result_items: row = item.text.split() writer.writerow(row) # 爬取其他页面的信息 # ... self.driver.quit() ``` 3. 创建一个item ```python from scrapy import Item, Field class ExamInfoItem(Item): # 考试名称 exam_name = Field() # 考试时间 exam_time = Field() # 考试地点 exam_location = Field() # 考试科目 exam_subject = Field() # 考试类型 exam_type = Field() # 考试报名时间 exam_reg_time = Field() # 考试报名费用 exam_reg_fee = Field() # 考试网址 exam_website = Field() ``` 注意:在使用selenium时请遵守网站的爬取规则,不要过度频繁地访问同一网站,以免被封禁IP。另外,注意对csv文件的编码和换行符的处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值