爬取苏宁图书

# -*- coding: utf-8 -*-
import scrapy
from copy import deepcopy


class SuSpider(scrapy.Spider):
    name = 'su'
    allowed_domains = ['suning.com']
    start_urls = ['http://book.suning.com/']

    def parse(self, response):
        div_list=response.xpath('//div[@class="menu-list"]/div[@class="menu-item"]')
        a_list = response.xpath('//div[@class="menu-sub"]/div[@class="submenu-left"]')
        for d,div in enumerate(div_list):
            item={}
            item['b_case']=div.xpath('./dl//a/text()').extract_first()
            for i,a in enumerate(a_list):
                if d==i:
                    m_title_list=a.xpath('./p/a')
                    for m in m_title_list:
                        item['m_case']=m.xpath('./text()').extract_first()
                        item['m_url']=m.xpath('./@href').extract_first()
                        yield scrapy.Request(url=item['m_url'],
                                       callback=self.parse_m_case,
                                       meta={'item':deepcopy(item)})


    def parse_m_case(self,response):
        item=response.meta.get('item')
        li_list=response.xpath('//ul[@class="clearfix"]/li')
        for li in li_list:
            sale=li.xpath('.//div[@class=" "]//em/text()').extract_first()
            print(sale)
            if sale=='满125用100':
                item['s_title']=li.xpath('.//p[@class="com-cnt"]/a/@title').extract_first()
                item['s_url'] = li.xpath('.//p[@class="com-cnt"]/a/@href').extract_first()
                item['s_money'] = li.xpath('.//p[@class="prive-tag"]/em//text()').extract_first()
                
                print(item)





  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值