scrapy爬虫实战(部分源代码)

该文章展示了如何使用Scrapy框架创建一个名为SpiderTitleSpider的爬虫,从zongheng.com抓取章节标题,并将它们写入我有一剑.txt文件。主要涉及`Sss1Item`定义和XPath查询的使用。
摘要由CSDN通过智能技术生成

items.py

# Define here the models for your scraped items
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/items.html

import scrapy


class Sss1Item(scrapy.Item):
    # define the fields for your item here like:
    name = scrapy.Field()

spider_title.py

import scrapy
from sss1.items import Sss1Item
class SpiderTitleSpider(scrapy.Spider):
    name = "spider_title"
    allowed_domains = ["www.zongheng.com"]
    start_urls = ["https://read.zongheng.com/chapter/1215341/68208370.html"]

    def parse(self, response):
        item=Sss1Item()
        f=open('我有一剑.txt','a',encoding='utf8')
        titles=response.xpath('//*[@id="Jcontent"]/div/div[1]/div[2]/text()').extract()
        for asd in titles:
            f.write(asd+"\n")

        names=[each.extract() for each in response.xpath('//*[@id="Jcontent"]/div/div[4]/p[3]/span[1]/text()')]
        # for asd in names:
        #     f.write(asd+"\n")
        item['name']=names
        yield item
        next=response.xpath('//*[@id="page_reader"]/div[3]/div[1]/div[3]/div[1]/a[3]/@href').get()
        next=next.replace("?","")
        print('----------------------------------------------------------')
        print(next)
        if next:
            yield scrapy.Request(url=next,callback=self.parse)

  • 5
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是一个简单的Scrapy爬虫项目实战,希望能帮助你入门Scrapy: 1. 分析目标网站 首先需要对目标网站进行分析,了解需要爬取的数据所在的页面、元素以及网站的反爬机制等。 以爬取豆瓣电影Top250为例,我们可以在浏览器中打开目标网站,查看其网页源代码,找到需要爬取的数据所在的元素,比如电影名称、导演、演员、评分等。 2. 创建Scrapy项目 打开命令行窗口,进入要创建项目的目录,输入以下命令: ``` scrapy startproject project_name ``` 其中,`project_name`为你所创建的项目名称。 3. 创建Spider 在Scrapy中,Spider是爬取网站的核心组件。我们需要创建一个Spider来定义如何爬取目标网站的数据。 在Scrapy项目的根目录下,进入`/spiders`文件夹,创建一个新的Python文件,例如`douban_spider.py`。在该文件中,定义一个Spider类,继承自`scrapy.Spider`,并重写`start_requests()`和`parse()`方法。 `start_requests()`方法用于生成初始请求,`parse()`方法用于处理响应并提取数据。 ```python import scrapy class DoubanSpider(scrapy.Spider): name = 'douban' allowed_domains = ['movie.douban.com'] start_urls = ['https://movie.douban.com/top250'] def start_requests(self): for url in self.start_urls: yield scrapy.Request(url=url, callback=self.parse) def parse(self, response): # 处理响应并提取数据 pass ``` 4. 提取数据 在`parse()`方法中,我们可以使用XPath或CSS选择器来提取数据。以提取电影名称为例,我们可以使用XPath表达式`//div[@class="hd"]/a/span[1]/text()`或CSS选择器`div.hd a span:nth-child(1)::text`。 ```python import scrapy class DoubanSpider(scrapy.Spider): name = 'douban' allowed_domains = ['movie.douban.com'] start_urls = ['https://movie.douban.com/top250'] def start_requests(self): for url in self.start_urls: yield scrapy.Request(url=url, callback=self.parse) def parse(self, response): # 提取电影名称 for item in response.xpath('//div[@class="hd"]/a/span[1]/text()'): name = item.extract().strip() yield {'name': name} ``` 5. 存储数据 最后,我们需要将提取到的数据存储到数据库或文件中。可以在`settings.py`文件中配置存储方式。 以下是将数据保存到JSON文件中的示例代码: ```python import scrapy class DoubanSpider(scrapy.Spider): name = 'douban' allowed_domains = ['movie.douban.com'] start_urls = ['https://movie.douban.com/top250'] def start_requests(self): for url in self.start_urls: yield scrapy.Request(url=url, callback=self.parse) def parse(self, response): # 提取电影名称 for item in response.xpath('//div[@class="hd"]/a/span[1]/text()'): name = item.extract().strip() yield {'name': name} # 保存数据到JSON文件 filename = 'douban.json' with open(filename, 'w', encoding='utf-8') as f: f.write(json.dumps(data, ensure_ascii=False)) ``` 以上就是一个简单的Scrapy爬虫项目实战,希望对你有所帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值