scrapy实践一(CrawlSpider爬取图片并存储)

前言

为公众号收集电影图片素材

使用scrapy图片下载

目标网站
https://film-grab.com/
在这里插入图片描述

爬取成果
在这里插入图片描述
因为已经有了一次爬取成功的基础,再加上这个网站结构跟上个例子差不多,所以很快就达到了目的。
有多快呢
十分钟不到

代码参考
settings.py(已删除多余部分)

BOT_NAME = 'pictures'
SPIDER_MODULES = ['pictures.spiders']
NEWSPIDER_MODULE = 'pictures.spiders'
ROBOTSTXT_OBEY = False
DEFAULT_REQUEST_HEADERS = {
  'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
  'Accept-Language': 'en',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是一个简单的使用Scrapy爬取豆瓣电影的脚本: 首先,创建一个Scrapy项目: ``` scrapy startproject douban_movie ``` 然后,在项目的根目录下创建一个名为douban_movie_spider.py的爬虫文件。在该文件中,编写如下代码: ```python import scrapy class DoubanMovieSpider(scrapy.Spider): name = 'douban_movie' allowed_domains = ['movie.douban.com'] start_urls = ['https://movie.douban.com/top250'] def parse(self, response): for movie in response.xpath('//div[@class="hd"]'): yield {'title': movie.xpath('a/span[@class="title"]/text()').extract_first()} next_page = response.xpath('//span[@class="next"]/a/@href').extract_first() if next_page: yield scrapy.Request(response.urljoin(next_page), callback=self.parse) ``` 在这个爬虫中,我们首先定义了一个名为DoubanMovieSpider的类,它继承自ScrapySpider类。我们设置了一些属性,包括name(爬虫的名称)、allowed_domains(允许爬取的域名)和start_urls(起始URL)。 在parse()方法中,我们使用XPath表达式来提取每部电影的标题,并将其作为一个字典的值返回。我们还使用XPath表达式来提取下一页的URL,并使用Scrapy的Request对象获取该URL并继续调用parse()方法。 最后,我们需要在命令行中运行以下命令来启动这个爬虫: ``` scrapy crawl douban_movie -o movies.json ``` 这个命令将使用我们刚刚编写的爬虫来爬取豆瓣电影Top250,并将结果保存为JSON文件。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值