【Scrapy】Items容器

Items

Item对象是种简单的容器,保存了爬取到的数据。其提供了类似于字典的API以及用于声明可用字段的简单语法。

声明Item

Item使用简单的class定义语法以及Field对象来声明。

import scrapy
class Product(scrapy.Item): #Product类继承自Item类
    name = scrapy.Field()
    price = scrapy.Field()
    stock = scrapy.Field()
    last_updated = scrapy.Field(serializer=str) #last_updated指明了该字段的序列化函数

Item字段(Item Fields)

Field对象指明了每个字段的元数据(metadata)

可以为每个字段指明任何类型的元数据。**Field对象对接受的值没有任何限制。**Field对象中保存的每个键可以由多个组件使用,并且只有这些组件知道这个键的存在。

设置Field对象的主要目的就是在一个地方定义好所有的元数据。一般来说,那些依赖某个字段的组件肯定使用了特定的键(key)。必须查看组件相关的文档,查看其用了哪些元数据键(metadata key)。

与Item配合

创建item

product = Product(name=‘Desktop PC’,price=1000)
print product
>>>Product(name='desktop PC',price=1000)

获取字段的值

product['name']
>>>Desktop PC
product.get('name')
>>>Desktop PC
product['price']
>>>1000

product['last_updated']
>>>KeyError
product.get('last_updated',‘not set’)
>>>not set

'name' in product
>>>True
'last_updated' in product
>>>False
'last_updated' in product.fields
>>>True

设置字段的值

product['last_updated'] = 'today'
product['last_updated']
>>>today

product['lala'] = 'test'
>>>KeyError

获取所有获取到的值

product.keys()
>>>['price','name']

product.items()
[('price',1000),('name','Desktop PC')]

其他任务

复制item

product2 = Product(product)
print product2
>>>Product(name='Desktop PC',price=1000)
product3 = product2.copy()
print product3
>>>Product(name='Desktop PC',price=1000)

根据item创建字典(dict)

dict(product)
{'price':1000,'name':'Desktop PC'}

根据字典(dict)创建item

Product({'name':'Laptop PC','price':1500})
>>>Product(price=1500,name='Laptop PC')
Product({'name':'Laptop PC','lala':1500})
>>>KeyError

扩展Item

可以继承原来的item类来扩展新的item类

Item对象

class scrapy.item.Item([arg])

返回一个根据给定的参数可选初始化的item。
Item相对dict唯一额外添加的属性是fields
一个包含了item所有声明的字段的字典,而不仅仅是获取到的字段

字段(Field)对象

class scrapy.item.Field([arg])

Field仅仅是内置的dict类的一个别名,并没有提供额外的方法或者属性。换句话说 Field对象完完全全就是Python字典。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在 Scrapy 框架中,items 文件是用来储存爬取到的数据的数据结构。 Items 文件中定义了一个 Python 类,每个类属性对应爬取到的一个数据字段。例如,如果你想要爬取某个网站上的新闻标题和内容,你可以在 items 文件中定义如下类: ``` class NewsItem(scrapy.Item): title = scrapy.Field() content = scrapy.Field() ``` 然后在爬虫文件中,你可以使用 `yield` 语句将爬取到的数据封装成一个 NewsItem 对象,并通过 `yield` 语句返回给 Scrapy 框架。 Scrapy 框架会自动将这些 NewsItem 对象传递给定义的 Item Pipeline,在 Item Pipeline 中,你可以对爬取到的数据进行处理和存储。 总的来说,items 文件主要用于定义储存爬取到的数据的数据结构,方便在爬虫和 Item Pipeline 之间传递数据。 ### 回答2: Scrapyitems文件是用于定义爬虫要提取的数据结构的Python模块。它的作用主要有以下几个方面。 首先,items文件定义了需要爬取的数据的字段和数据类型。通过在items文件中定义字段,我们可以明确爬虫要提取的数据的结构,并指导后续的数据处理和存储操作。例如,可以定义一个字段用于存储网页的标题,另一个字段用于存储网页的URL等。通过明确字段和数据类型,有助于在后续的代码中对数据进行处理和验证。 其次,items文件提供了数据的容器Scrapy将爬取到的数据存储在一个叫做Item的对象中,这个对象就是由items文件定义的。通过在items文件中定义的字段,我们可以将爬取到的数据以统一的数据结构存储起来,方便后续的数据处理和存储。 此外,items文件还可以用于数据的清洗和预处理。在爬取数据的过程中,可能会有一些需要清洗或格式化的数据。通过在items文件中定义字段的时候,在字段的定义中添加数据处理方法,可以在爬取到数据后进行一些预处理操作,如去除空白字符、转换数据类型等。 总结来说,Scrapyitems文件主要用于定义爬虫要提取的数据结构,包括字段、数据类型和数据处理方法。它为爬虫提供了数据的容器和预处理功能,方便后续的数据处理和存储操作。 ### 回答3: Scrapy是一个用于爬取网站数据的Python框架。在Scrapy中,items文件是用来定义要爬取的数据结构的地方。它类似于数据库中的表结构或者类对应的属性。 items文件的主要作用是定义爬取数据的字段,并对字段进行规范化和筛选。在items文件中,我们可以定义各种字段,如标题、链接、发布时间、作者等等。通过定义多个字段,我们可以将网站上的各个数据项进行统一的抽象和归类。 使用items文件的好处是可以帮助我们更好地组织和管理爬取的数据。通过定义字段,我们可以清晰地了解每个数据项的含义和类型。此外,我们还可以在items文件中设置一些字段的约束条件,如数据类型、数据格式等,以确保数据的质量和完整性。这样就可以避免一些无效或者错误的数据被爬取和保存。 在Scrapy中,爬取的数据会以字典的形式存储在items中,可以通过定义字段的方式来提取和存储所需的数据。在爬虫中,当爬取到需要的数据时,可以使用items来实例化一个item对象,并将爬取到的数据存储在其中。然后,这些item对象会交给Scrapy的pipeline进行处理和持久化。 综上所述,items文件在Scrapy中发挥着重要的作用,它定义了爬取数据的字段和规范,帮助我们更好地组织和管理爬取的数据。通过使用items文件,可以提高数据的质量和完整性,使得数据的抽取和存储变得更加简单和方便。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值