scrapy 豆瓣爬虫

db.py
爬虫文件

# -*- coding: utf-8 -*-
import scrapy
import re
from scrapy import Request
from copy import deepcopy
class DbSpider(scrapy.Spider):
    name = 'db'
    allowed_domains = ['douban.com']
    start_urls = ['https://movie.douban.com/top250',]

    def parse(self, response):
        li_list=response.xpath('//*[@id="content"]/div/div[1]/ol/li')
        for li in li_list:
            item = {}
            item['url'] = li.xpath('./div/div/a/@href').extract_first()
            item['title'] = li.xpath('./div/div/a/img/@alt').extract_first()
            item['year'] = re.findall('\d{4}',li.xpath('./div/div[2]/div[2]/p[1]/text()').extract()[1])[0]
            item['title']=li.xpath('.div/div[2]/div[1]/a/text()').extract_first()
            # print(item['url'])
            yield Request(item['url'],callback=self.next_url_parse,meta={'item':item})
    def next_url_parse(self,response):
        item=deepcopy(response.meta['item'])
        item['star']=response.xpath('//*[@id="interest_sectl"]/div[1]/div[2]/strong/text()').extract_first()
        # print(item)
        # lis=ppend(item)
        # url = response.urljoin(next)
        yield scrapy.Request(item['url'], callback=self.next_url_parse,meta={'item':item})

        # yield item


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值