scrapy爬豆瓣电影

usage:

scrapy crawl first

一、抓取效果


二、源码下载

http://download.csdn.net/detail/wxq714586001/8821149

三、总结

done:

1、解决了将unicode字符串(类似于‘\uxxx\n\t\t’)转换为实际的文字,困扰了很久。

2、用正则表达式替换字符串。

3、scrapy的基本使用方法。

todo:

    1、爬了一段时间就被豆瓣禁了。

2、存储了一些无效的链接。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Scrapy是一个强大的Python网络虫框架,用于从网站上抓取数据。如果你想用它取豆瓣Top250电影排行榜的数据,可以按照以下步骤操作: 1. **安装Scrapy**:首先需要确保已经安装了Python以及Scrapy框架,如果没有,可通过`pip install scrapy`命令安装。 2. **创建项目**:运行`scrapy startproject douban_tops` 创建一个新的Scrapy项目,选择一个合适的名称。 3. **定义Spider**:在spiders文件夹下新建一个Python文件,如'doubantop.py',并定义一个继承自`DjangoSpider`或`BaseSpider`的虫类。设置起始URL(通常是豆瓣电影Top250的页面地址)和解析规则。 ```python import scrapy class DoubanTopSpider(scrapy.Spider): name = 'doubantop' allowed_domains = ['movie.douban.com'] start_urls = ['https://movie.douban.com/top250'] def parse(self, response): # 使用XPath 或 CSS选择器找到你需要的数据(比如电影标题、评分等) titles = response.css('div.item .title a::text').getall() ratings = response.css('span.rating_num::text').getall() for title, rating in zip(titles, ratings): yield { 'title': title, 'rating': rating, } # 如果有分页链接,继续请求下一页 next_page = response.css('a.next::attr(href)').get() if next_page is not None: yield response.follow(next_page, self.parse) ``` 4. **运行虫**:在项目的根目录下,通过`scrapy crawl doubantop` 命令运行虫。Scrapy会开始下载网页并处理数据。 5. **保存数据**:默认情况下,Scrapy将数据存储为JSON或其他标准格式,你可以根据需求配置其保存位置或使用中间件处理数据。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值