Scrapy中的yield使用

背景

yield和协程总是相伴出现。
scrapy使用yield进行数据解析和爬取request。

yield的理解

yield的解释都比较复杂,一段典型的yield的使用如下:

def foo():    
    print("starting...")
    while True:
        res = yield 4
        print("res:",res)
g = foo()
print(next(g))
print("*"*20)
print(g.send(7))

这边有几个要点:

  1. yield的一行跟return的用法基本比较接近;
  2. yield的函数(foo)被称为++生成器++;
  3. res = yield 4处包含了4个操作
    1. 向调用处抛出(返回)4
    2. 暂停,并等待调用处的nextsend恢复
    3. 接收调用处send发送进来的值
    4. 将接收到的值赋给等号左边
  4. 生成器接收到nextsend恢复后,从yield的下一句开始执行,
    1. 本例中调用next恢复后,从yield处继续往下执行,其中next调用带入的参数为None,因此从执行res = None继续往下;
    2. 本例中调用send恢复后,从yield处继续往下执行,其中yield在生成器的返回值为send带入的参数7

scrapy中的yield的使用

在scrapy中典型的yield场景主要是使用scrapy.Request对象和scrapy.Item对象。

scrapy.Request对象

def start_requests(self):
        urlfront = 'http://www.example.com/XYPT/score/scoreInfoList?objectType=1&pageSize=100&scoreUnitId='

        csv_reader = csv.reader(open("./Requirement.csv"))

        for line in csv_reader:
            #根据数据生成爬取地址
            url = urlfront + self.punishment_number
            yield scrapy.Request(url=url, callback=self.parse2)

scrapy框架会去获得Requese对象指向的链接,并进行爬取请求,在请求完成后调用该对象的回调函数。
这里我们查表获取链接,并拼装,在循环内通过yield来发起请求,并且还将函数parse2注册为回调函数,parse2中应提取响应所需的数据。

scrapy.Item对象

#存储结构化数据
for company in response.css('tbody').css("tr"):
    field = company.css("td")
    yield {
        'Number': field[0].css("::text").get(),
        'CompanyName': field[1].css("a::text").get().split(" ")[-1],
        'UnifiedCreditCode': field[2].css("::text").get(),
        'Address': field[3].css("::text").get(),
        'EstablishmentNumber':  field[4].css("a::text").get().split(" ")[-1],
        'EIAEngineersNumber':  field[5].css("a::text").get().split(" ")[-1],
        'Status':  field[6].get().split(" ")[-1].split("<")[0],
        'PunishmentDetail':  field[7].css("a.amend-see::attr(href)").get().split("'")[-2],
    }

{}中间构建了一个scrapy.Item对象,scrapy框架会将这个对象传递给pipelines.py进行下一步处理,如果没有编写pipelines.py,就是单纯对item进行返回。
这里我们通过yield返回了一个8个key的scrapy.Item对象。

scrapy中的传值的问题

在scrapy中,callback同spider是在不同的进程中执行的,所以如果使用全局变量会遇到多进程读写的毛病。
对于这一点,我们有两种解决方案。

从持久化数据源(数据库/表格)中获取数据

这一块的作法是根据url中的关键字进行解码,采用解码后的结果从持久化数据源中进行查表并获取所需的关联数据。

def parse(self, response):
    punish_id = response.url.split("=")[-1]
    with open("./Requirement.csv") as csvfile:
        reader = csv.DictReader(csvfile)
        for row in reader:
            if row["PunishmentID"] == punish_id:
                unified_credit_code = row["UnifiedCreditCode"]
                company_code = row['技术单位名称']

上述例子是

  1. 从url中解码出punish_id
  2. 将csv文件读取为字典
  3. 搜索csv文件中对应的域"PunishmentID",获取相关的unified_credit_code和company_code

使用cb_kwargs在request和callback回调函数之间进行传参

    # 在Request发起端定义cb_kwargs,注意参数需要用dict来进行定义
    yield scrapy.Request(url=url, callback=self.parse2, 
                         cb_kwargs=dict(company_code=self.company_name, punish_id=self.punishment_number, unified_credit_code=self.unified_creditcode))

#在callback函数中需要对应地声明cb_kwargs的参数
def parse2(self, response, company_code, punish_id, unified_credit_code):

这里,将全局变量self.company_name, self.punishment_numberself.unified_creditcode通过传值的方式参数传递给回调函数,并确保了上述全局变量被改变后,不影响回调函数中对这些值的使用。

注意:
Request.cb_kwargs是在scrapy 1.7 版本后被引入的。之前的版本使用Request.meta给回调函数传递信息,但meta的下属结构定义是固定的。1.7版本后,通常我们使用Request.cb_kwargs来处理用户信息,而Request.meta作为中间件和扩展组件的通信使用。

参考

https://towardsdatascience.com/web-scraping-with-scrapy-theoretical-understanding-f8639a25d9cd
https://docs.scrapy.org/en/latest/topics/request-response.html#topics-request-meta
https://www.cnblogs.com/chenxi188/p/10848690.html

  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Scrapyyield是一个关键字,用于在Spider类定义生成器函数。yield的作用是将爬取到的数据以及相关的请求传递给Scrapy引擎,然后由引擎负责处理这些数据和请求。 在Scrapy,当Spider类的解析函数返回一个包含yield关键字的可迭代对象时,Scrapy会将这个可迭代对象作为生成器来处理。每次生成器迭代时,它会产生一个Item对象或一个Request对象。如果生成器产生的是一个Item对象,那么这个Item对象会被送入到Scrapy引擎的Item Pipeline进行处理。如果生成器产生的是一个Request对象,那么这个Request对象会被发送给Scrapy引擎,并由引擎继续处理。 通过使用yield,可以实现异步的数据获取和处理。当爬虫在处理一个请求时,可以暂停处理,等待其他请求的响应返回,然后再恢复处理。这样可以提高爬取效率,并且减少内存占用。 总的来说,yieldScrapy使用方式是将爬取到的数据以及相关的请求一次性返回给Scrapy引擎,然后由引擎来处理这些数据和请求。<span class="em">1</span> #### 引用[.reference_title] - *1* [Python新浪新闻数据爬取统计展示项目](https://download.csdn.net/download/whirlwind526/88262065)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值