爬虫实战(3)| 用scrapy将爬取的猫眼电影信息保存到MongoDB

本文是作者学习爬虫的实战分享,使用Scrapy框架抓取猫眼电影数据,并详细介绍了如何将抓取的数据存储到MongoDB数据库中。博客中还提供了相关代码文件dianying.py和pipelines.py,供读者参考学习。
摘要由CSDN通过智能技术生成

大家好,作为一名互联网行业的小白,写博客只是为了巩固自己学习的知识,但由于水平有限,博客中难免会有一些错误出现,有不妥之处恳请各位大佬指点一二!
博客主页:链接: https://blog.csdn.net/weixin_52720197?spm=1018.2118.3001.5343
在这里插入图片描述

dianying.py

import scrapy


class DianyingSpider(scrapy.Spider):
    name = 'dianying'
    allowed_domains = ['maoyan.com']
    start_urls = ['https://maoyan.com/films?showType=3&offset={}'
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
首先需要安装scrapy,可以使用以下命令进行安装: ``` pip install scrapy ``` 然后创建一个新的scrapy项目和一个爬虫: ``` scrapy startproject maoyan cd maoyan scrapy genspider maoyan_spider maoyan.com ``` 接下来,打开 `maoyan_spider.py` 文件,在 `start_urls` 列表中添加猫眼电影最受期待榜的链接: ```python start_urls = ['https://maoyan.com/films?showType=3'] ``` 然后在 `parse` 方法中编写爬取逻辑: ```python def parse(self, response): movies = response.xpath('//div[@class="movie-item film-channel"]')[:20] for movie in movies: title = movie.xpath('./a/@title').extract_first().strip() release_time = movie.xpath('./div[2]/text()').extract_first().strip() yield {'title': title, 'release_time': release_time} ``` 上面的代码使用 `xpath` 提取了每个电影的标题和上映时间,并使用 `yield` 将结果返回。注意,我们只提取前20个电影。 最后,可以使用以下命令运行爬虫并将结果保存到 `movies.csv` 文件中: ``` scrapy crawl maoyan_spider -o movies.csv ``` 完整的爬虫代码如下: ```python import scrapy class MaoyanSpiderSpider(scrapy.Spider): name = 'maoyan_spider' allowed_domains = ['maoyan.com'] start_urls = ['https://maoyan.com/films?showType=3'] def parse(self, response): movies = response.xpath('//div[@class="movie-item film-channel"]')[:20] for movie in movies: title = movie.xpath('./a/@title').extract_first().strip() release_time = movie.xpath('./div[2]/text()').extract_first().strip() yield {'title': title, 'release_time': release_time} ``` 希望能够帮助到你。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值