scrapy简单实现一个项目

scrapy使用

创建一个scrapy项目:

scrapy startproject 项目名字

在这里插入图片描述

成功创建项目:
在这里插入图片描述

在这里插入图片描述

创建爬虫文件

scrapy genspider name www.xxx.com
#name为名字,www.xxx.com为网址

在这里插入图片描述
在这里插入图片描述

执行工程

执行前修改settings配置:
在这里插入图片描述

scrapy crawl name
#name为爬虫文件名称

输出一下response
在这里插入图片描述
成功输出
在这里插入图片描述
但是你会发现有许多日志输出,使用可以使用以下方法:

scrapy crawl name --nolog

可以看到没有日志输出了:
在这里插入图片描述

也可以指定日志错误:
在这里插入图片描述
使用scrapy crawl name就可以了,也不会输出大量日志,只会显示错误信息
在这里插入图片描述

xpath

scrapy可以使用xpath框架:
我想获取小说名字和作者名

在这里插入图片描述
做个测试:

import scrapy


class BiquSpider(scrapy.Spider):
    name = 'biqu'
    # 允许的域名
    # allowed_domains = ['www.bbiquge.net']
    start_urls = ['http://www.bbiquge.net/']

    def parse(self, response):
        list = response.xpath('//*[@id="mainleft"]/div[2]/ul')
        text = list[0].xpath('.//text()')
        print(text)

在这里插入图片描述
返回的是Selector对象。
使用改为print(text.extract()) extract()可以从Selector对象的data参数提取出来
在这里插入图片描述
修改一下代码:

import scrapy


class BiquSpider(scrapy.Spider):
    name = 'biqu'
    # 允许的域名
    # allowed_domains = ['www.bbiquge.net']
    start_urls = ['http://www.bbiquge.net/']

    def parse(self, response):
        list = response.xpath('//*[@id="mainleft"]/div[2]/ul')
        aut = list.xpath('./li/span/text()')
        book = list.xpath('./li/a/text()')
        for i in range(0, len(aut)):
            print(book[i].extract(), aut[i].extract())

成功获取:
在这里插入图片描述

基于终端的存储

scrapy crawl name -o ./存储文件名字.csv

存储一下小说名单

import scrapy


class BiquSpider(scrapy.Spider):
    name = 'biqu'
    # 允许的域名
    # allowed_domains = ['www.bbiquge.net']
    start_urls = ['http://www.bbiquge.net/']

    def parse(self, response):
        list = response.xpath('//*[@id="mainleft"]/div[2]/ul')
        aut = list.xpath('./li/span/text()').extract()
        book = list.xpath('./li/a/text()').extract()

        # 存储解析到的数据
        datas = []
        dic = {
            "书名": book,
            "作者": aut
        }
        datas.append(dic)

        return datas

在这里插入图片描述
成功存储
在这里插入图片描述
但是只能存储一下格式的:
在这里插入图片描述
想要存储其他格式的需要用到管道:

基于管道的存储

管道是存到item对象中
1.修改爬虫文件内容:

import scrapy
from ..items import ScrapyBiquItem

class BiquSpider(scrapy.Spider):
    name = 'biqu'
    # 允许的域名
    # allowed_domains = ['www.bbiquge.net']
    start_urls = ['http://www.bbiquge.net/']

    def parse(self, response):
        list = response.xpath('//*[@id="mainleft"]/div[2]/ul')
        aut = list.xpath('./li/span/text()').extract()
        book = list.xpath('./li/a/text()').extract()

        for i in range(0,len(aut)):
            item = ScrapyBiquItem()
            item['aut'] = aut[i]
            item['book'] = book[i]
            yield item  # 将item提交给管道

2.在items.py添加item类:

import scrapy


class ScrapyBiquItem(scrapy.Item):
    # define the fields for your item here like:
    aut = scrapy.Field()
    book = scrapy.Field()
    pass

3.在pipeliner.py添加方法:

class ScrapyBiquPipeline:
    fp = None
    #重写一个父类方法,该方法在开始爬虫会调用一次
    def open_spider(self,spider):
        print('start')
        self.fp = open('./book_list.txt','w',encoding='utf-8')
    #处理item对象
    def process_item(self, item, spider):
        book = item['book']
        aut = item['aut']
        self.fp.write(book+'--'+aut+'\n')
        return item

    def close_spider(self,spider):
        print('end')
        self.fp.close()

4.配置文件修改:

BOT_NAME = 'scrapy_biqu'

SPIDER_MODULES = ['scrapy_biqu.spiders']
NEWSPIDER_MODULE = 'scrapy_biqu.spiders'

# Crawl responsibly by identifying yourself (and your website) on the user-agent
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36'

# Obey robots.txt rules
ROBOTSTXT_OBEY = False
# 指定显示日志类型
LOG_LEVEL = 'ERROR'

ITEM_PIPELINES = {
   'scrapy_biqu.pipelines.ScrapyBiquPipeline': 300,#数字为优先级
}

5.运行代码:
在这里插入图片描述
成功保存:
在这里插入图片描述

中间件进行伪装和ip代理

可以进行实现伪装和ip代理

class ScrapyBiquDownloaderMiddleware:
    # Not all methods need to be defined. If a method is not defined,
    # scrapy acts as if the downloader middleware does not modify the
    # passed objects.
    http = ['122.9.101.6:8888',
            '101.200.127.149:3129',
            '183.236.123.242:8060',
            '58.20.184.187:9091',
            '47.106.105.236:80',
            '202.55.5.209:8090']
    https = [
        '139.196.155.96:8080',
        '47.102.193.144:8890'
    ]

    @classmethod
    def from_crawler(cls, crawler):
        # This method is used by Scrapy to create your spiders.
        s = cls()
        crawler.signals.connect(s.spider_opened, signal=signals.spider_opened)
        return s

    # 拦截请求
    def process_request(self, request, spider):
        request.headers['User-Agent'] = str(UserAgent().random)
        if request.url.split(':')[0] == 'http':
            request.meta['Proxy'] = 'http://' + random.choice(self.http)
        else:
            request.meta['Proxy'] = 'https://' + random.choice(self.https)

        return None

配置文件加入:

DOWNLOADER_MIDDLEWARES = {
   'scrapy_biqu.middlewares.ScrapyBiquDownloaderMiddleware': 543,
}
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Scrapy是一个基于Python的开源网络爬虫框架,用于快速、高效地从网站中提取数据。下面是一个使用Scrapy框架实现爬虫的详细描述: 1. 安装Scrapy 使用pip命令安装Scrapy: ``` pip install Scrapy ``` 2. 创建Scrapy项目 使用命令行工具创建一个Scrapy项目: ``` scrapy startproject myproject ``` 其中,myproject是项目的名称。 3. 创建Spider 在myproject/spiders目录下创建一个python文件,用于定义Spider。Spider是Scrapy中的一个类,用于定义如何爬取一个网站。以下是一个简单的Spider实现: ``` import scrapy class MySpider(scrapy.Spider): name = "myspider" start_urls = [ "http://www.example.com/page1.html", "http://www.example.com/page2.html", "http://www.example.com/page3.html", ] def parse(self, response): # 处理响应内容 pass ``` 其中,name属性为Spider的名称,start_urls属性为要爬取的起始URL列表,parse方法用于处理响应内容。 4. 提取数据 使用Scrapy提供的Selector和Item类,可以方便地提取网页中的数据。以下是一个示例: ``` import scrapy from myproject.items import MyItem class MySpider(scrapy.Spider): name = "myspider" start_urls = [ "http://www.example.com/page1.html", "http://www.example.com/page2.html", "http://www.example.com/page3.html", ] def parse(self, response): # 提取数据 item = MyItem() item['title'] = response.xpath('//title/text()').extract_first() item['content'] = response.xpath('//div[@class="content"]/text()').extract() yield item ``` 其中,MyItem是一个自定义的Item类,用于存储提取出来的数据。 5. 存储数据 Scrapy提供了多种存储数据的方式,包括输出到控制台、保存到文件、存储到数据库等。以下是一个存储到文件的示例: ``` import scrapy from myproject.items import MyItem class MySpider(scrapy.Spider): name = "myspider" start_urls = [ "http://www.example.com/page1.html", "http://www.example.com/page2.html", "http://www.example.com/page3.html", ] def parse(self, response): # 提取数据 item = MyItem() item['title'] = response.xpath('//title/text()').extract_first() item['content'] = response.xpath('//div[@class="content"]/text()').extract() # 存储数据 filename = 'data.txt' with open(filename, 'a') as f: f.write(item['title'] + '\n') f.write('\n'.join(item['content']) + '\n') ``` 其中,数据会被追加到data.txt文件中。 6. 运行爬虫 使用以下命令运行Spider: ``` scrapy crawl myspider ``` 其中,myspider是Spider的名称。运行后,Scrapy会自动爬取起始URL列表中的网页,并提取数据存储到指定位置。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

<编程路上>

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值