scrapy 两类item_scrapy item的详细讲解

首先要明确要获取的目标内容然后编写items 文件:定义Item非常简单,只需要继承scrapy.Item类,并将所有字段都定义为scrapy.Field类型即可

示例:

import scrapy

class Product (scrapy.Item):

name = scrapy.Field()

price = scrapy.Field()

stock = scrapy.Field()

last_updated = scrapy.Field(serializer=str)

spider文件:

spider的类及其属性和方法:

class scrapy.spiders.Spider

每个spider都是继承这个类其仅仅请求给定的 start_urls/start_requests ,

并根据返回的结果(resulting responses)调用spider的 parse

name#爬虫名称,str,必须

allowed_domains#默认跟踪的url必须在这个域中,下面这个方法解决长因此的问题

禁用OffsiteMiddleware的时候可以使不在allowed_domains的URL也可以跟进

start_urls#url列表

start_requests()#

未指定URL启用,使用start_url中url跑默认一次,可定制初次发送的请求比如post,

指定URL时默认make_request_from_url()被调用创建request对象(一次性创建)

def start_requests(self):##标准写法

return [scrapy.FormRequest("http://www.example.com/login",formdata={'user': 'john', 'pass': 'secret'},callback=self.logged_in)]

make_requests_from_url(url)#有start_request()就覆盖了他

接收URL返回request对象其中包含parse()作为回调函数dont_filter自动过滤属性默认开启,默认被start_requests()调用

parse(response)#不指定回调函数,默认被指定,负责处理response并返回处理的数据以及(/或)跟进的URL,必须返回一个包含 Request 及(或) Item 的可迭代的对象

样例:代码写的啰嗦,这里展示了使用start_request()方法覆盖start_url

import scrapy

from myproject.items import MyItem

class MySpider(scrapy.Spider):

name = 'example.com'

allowed_domains = ['example.com']

def start_requests(self):

yield scrapy.Request('http://www.example.com/1.html', self.parse)

yield scrapy.Request('http://www.example.com/2.html', self.parse)

yield scrapy.Request('http://www.example.com/3.html', self.parse)

def parse(self, response):

for h3 in response.xpath('//h3').extract():

yield MyItem(title=h3)

for url in response.xpath('//a/@href').extract():

yield scrapy.Request(url, callback=self.parse)

scrapy也支持使用-a的方式在命令行上去为爬虫添加属性:

scrapy crawl myspider -a category=electronics!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: `CONCURRENT_REQUESTS_PER_DOMAIN` 是 Scrapy 中一个设置并发请求数量的参数,它指定了同一域名下的并发请求数量。默认情况下,它的值为 8,意味着在同一时间内,Scrapy 最多会发送 8 个请求到同一域名下。如果需要调整该参数,可以在 Scrapy 的配置文件中设置: ```python CONCURRENT_REQUESTS_PER_DOMAIN = 16 # 将并发请求数量设置为 16 ``` 需要注意的是,同时也可以设置 `CONCURRENT_REQUESTS_PER_IP` 参数,它指定了同一 IP 地址下的并发请求数量。默认情况下,它的值为 0,表示不限制并发请求数量。但是在某些情况下,服务器可能会对同一 IP 地址下的访问频率进行限制,因此需要适当调整该参数。 ### 回答2: scrapy中的CONCURRENT_REQUESTS_PER_DOMAIN是指在同一个域名下同时发送的请求的数量限制。通过设置CONCURRENT_REQUESTS_PER_DOMAIN,可以控制爬虫同时访问同一域名下页面的并发请求数量,从而限制爬虫对目标网站的访问频率。 这个设置参数可以在爬虫的settings.py文件中进行配置。默认情况下,CONCURRENT_REQUESTS_PER_DOMAIN的值为8,即一个域名下最多同时发送8个请求。 通过调整CONCURRENT_REQUESTS_PER_DOMAIN的值,可以控制对目标网站的访问速度和并发数。如果设置的值较大,爬虫可以更快地抓取数据,但也会带来更高的对目标网站的访问压力和风险。而如果设置的值较小,访问速度会较慢,但可以更好地保护爬虫不被目标网站封禁。 在实际应用中,可以根据目标网站的反爬策略、自身机器的性能以及所需的数据抓取速度来配置CONCURRENT_REQUESTS_PER_DOMAIN的值。例如,对于反爬策略比较严格的网站,可以将该值设置为较小的数值,以减少被封禁的风险;而对于性能强大的服务器和较宽松的反爬策略的网站,可以适当增加该值,提高爬虫的抓取效率。 总之,通过设置CONCURRENT_REQUESTS_PER_DOMAIN参数,可以有效控制爬虫对目标网站的并发请求数量,以达到更好的抓取效果和保护爬虫的目的。 ### 回答3: Scrapy的CONCURRENT_REQUESTS_PER_DOMAIN是一个设置并发请求的参数,它控制着每个域名下的并发请求的数量。换句话说,它决定了Scrapy能够同时发送给同一域名的请求数量。 通过设置CONCURRENT_REQUESTS_PER_DOMAIN参数,可以控制对同一域名的同时请求数量,从而避免对目标网站造成过大的压力或被封IP的风险。这个参数的默认值是8,这意味着Scrapy可以同时发送8个请求给同一域名。 但是,需要注意的是,该参数并不限制对不同域名的并发请求数量。如果需要限制整个应用程序的并发请求数量,可以使用CONCURRENT_REQUESTS参数来控制。 合理设置CONCURRENT_REQUESTS_PER_DOMAIN参数有助于平衡Scrapy爬虫的速度和稳定性。如果将该值设得过高,可能会对目标网站造成过大的压力导致请求失败;而将该值设得过低,则可能会降低爬取效率。 在实际应用中,我们可以根据目标网站的反应速度和服务器负载情况来合理设置CONCURRENT_REQUESTS_PER_DOMAIN参数。可以先尝试将其设为较低的值,观察爬虫的稳定性和目标网站的反应情况,再进行调整。 总之,通过合理设置CONCURRENT_REQUESTS_PER_DOMAIN参数,可以在一定程度上控制Scrapy爬虫对同一域名的并发请求数量,从而提高爬取效率、避免对目标网站造成过大压力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值