使用scrapy爬取豆瓣top250并导出

import scrapy

class DoubanSpider(scrapy.Spider):
    name = 'douban'
    allowed_domains = ['douban.com']
    start_urls = [f'https://movie.douban.com/top250?start=0']
    def parse(self, response):
        title=response.xpath('//a/span[@class="title"][1]/text()').getall()
        start=response.xpath('//span[@class="rating_num"]/text()').getall()
        #使用原生的Python写法 写入txt文档
        # with open('moive.txt','w',encoding='utf-8') as f:
        #     for t,s in zip(title,start):
        #         #print(f'{t}{s}')
        #         f.write(f'{t},{s}\n')
        #
        #导出的另一种格式写法
# FEED_EXPORT_ENCODING = 'utf-8' 导出格式json使用
        for t,s in zip(title,start):
            yield {
                'title':t,
                'star':s
            }
#scrapy crawl douban -o wen.csv  保存csv格式的文件 也就是excel
#scrapy crawl douban -o wen.json 保存json格式的文件 
#scrapy crawl douban -o wen.txt  以文本方式保存
#打开设置
#打开pipelines 添加open close
# ITEM_PIPELINES = {
#    'scrapy01.pipelines.Scrapy01Pipeline': 300,
# }

 

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是使用Scrapy爬取豆瓣Top250电影的步骤: 1. 首先安装Scrapy,可以使用pip命令进行安装: ``` pip install scrapy ``` 2. 创建一个新的Scrapy项目,可以使用以下命令: ``` scrapy startproject douban_top250 ``` 这将创建一个名为“douban_top250”的文件夹,其中包含了Scrapy项目的各个文件。 3. 进入项目文件夹,创建一个新的Spider,用于爬取Top250电影的信息: ``` cd douban_top250 scrapy genspider douban_spider https://movie.douban.com/top250 ``` 这将在“douban_top250/spiders”文件夹中创建一个名为“douban_spider”的Spider,它将以“https://movie.douban.com/top250”作为起始URL。 4. 打开“douban_spider.py”文件,在其中添加以下代码: ```python import scrapy class DoubanSpider(scrapy.Spider): name = 'douban_spider' start_urls = ['https://movie.douban.com/top250'] def parse(self, response): # TODO: 实现解析HTML页面,提取电影信息的代码 pass ``` 在这个Spider中,我们定义了一个名称为“douban_spider”的Spider,并设置了它的起始URL为“https://movie.douban.com/top250”。在“parse”方法中,我们将编写解析HTML页面、提取电影信息的代码。 5. 在“parse”方法中,编写代码来解析HTML页面、提取电影信息。以下是一个可能的实现: ```python def parse(self, response): # 获取电影列表中所有电影的URL movie_links = response.css('.hd a::attr(href)').extract() # 遍历每个电影的URL,提取电影信息 for movie_link in movie_links: yield scrapy.Request(movie_link, callback=self.parse_movie) # 如果有下一页,继续爬取 next_page_link = response.css('.next a::attr(href)').extract_first() if next_page_link: yield scrapy.Request(next_page_link, callback=self.parse) def parse_movie(self, response): # 提取电影信息,例如电影名称、评分、导演、主演等等 title = response.css('h1 span::text').extract_first() rating = response.css('.rating_num::text').extract_first() directors = response.css('a[rel="v:directedBy"]::text').extract() actors = response.css('.actor .info a::text').extract() # 将提取的信息输出到控制台 print(title, rating, directors, actors) ``` 在这个实现中,我们首先使用CSS选择器获取电影列表中所有电影的URL。然后遍历每个电影的URL,使用“parse_movie”方法提取电影信息。在“parse_movie”方法中,我们使用CSS选择器提取电影信息,并将其输出到控制台。 6. 最后,在命令行中执行以下命令来运行Spider: ``` scrapy crawl douban_spider -好的,以下是使用Scrapy爬取豆瓣电影Top250的基本步骤: 1. 创建Scrapy项目 在终端中执行以下命令创建一个新的Scrapy项目: ``` scrapy startproject douban ``` 这将创建一个名为douban的新目录,其中包含了一个基本的Scrapy项目结构。 2. 创建Spider 在Scrapy中,Spider是爬虫的核心部分,负责定义如何抓取网站数据。在douban项目中,我们可以使用以下命令创建一个新的Spider: ``` scrapy genspider douban_movie_top250 https://movie.douban.com/top250 ``` 这将在spiders目录下创建一个名为douban_movie_top250.py的文件,并为我们定义一个基本的Spider,它可以从豆瓣电影Top250页面中提取数据。 3. 编写Spider代码 现在,我们需要编辑douban_movie_top250.py文件并添加提取数据的代码。以下是一个简单的示例,它将从页面中提取电影的名称、评分和评论数: ``` import scrapy class DoubanMovieTop250Spider(scrapy.Spider): name = 'douban_movie_top250' allowed_domains = ['movie.douban.com'] start_urls = ['https://movie.douban.com/top250'] def parse(self, response): for movie in response.xpath('//div[@class="info"]'): yield { 'title': movie.xpath('div[@class="hd"]/a/span/text()').get(), 'rating': movie.xpath('div[@class="bd"]/div[@class="star"]/span[@class="rating_num"]/text()').get(), 'comments': movie.xpath('div[@class="bd"]/div[@class="star"]/span[last()]/text()').get().strip('()') } next_page = response.xpath('//span[@class="next"]/a/@href') if next_page: yield response.follow(next_page.get(), self.parse) ``` 该代码使用XPath表达式从页面中提取信息,并使用Scrapy的response.follow方法继续跟随下一页链接。我们将数据作为字典形式的Python对象进行yield,这将使Scrapy将其保存到JSON格式文件中。 4. 运行Spider 我们现在可以在终端中执行以下命令运行我们的Spider: ``` scrapy crawl douban_movie_top250 -o top250.json ``` 这将运行Spider并将提取的数据保存到名为top250.json的文件中。 以上就是使用Scrapy爬取豆瓣电影Top250的基本步骤。希望对您有所帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值