scrapy 搜索关键字_Scrapy:如何使用多个搜索项的参数 -问答-阿里云开发者社区-阿里云...

这篇博客讲述了如何在Scrapy爬虫中通过命令行参数传递关键字,以便搜索包含该关键字的URL。作者遇到问题并分享了解决方案,即在`__init__`方法中设置`LinkExtractor`的`allow`参数,然后使用命令`scrapy crawl myfirst -a nombre="vermont"`来运行爬虫。
摘要由CSDN通过智能技术生成

我正在玩scrapy,现在我尝试搜索不同的关键字,从命令行工具传递参数。 基本上,我想定义一个关键字,爬虫应该搜索包含这个关键字的url。 这是我的命令行:

scrapy crawl myfirst -a nombre="Vermont"

这是我的履带:

class myfirstSpider(CrawlSpider):

name = 'myfirst'

allowed_domains= ["leroymerlin.es"]

start_urls = ["https://www.leroymerlin.es/decoracion-navidena/arboles-navidad?index=%s" % (page_number) for page_number in range(2)]

def __init__(self, nombre=None, *args, **kwargs):

super(myfirstSpider, self).__init__(*args, **kwargs)

rules = (

Rule(LinkExtractor(allow= r'/fp/\*nombre*',), callback = 'parse_item'),)

def parse_item(self, response):

items = myfirstItem()

product_name = response.css ('.titleTechniqueSheet::text').extract()

items['product_name'] = product_name

yield items

不幸的是,它不工作… 欢迎帮助,谢谢! 我找到办法了!它适合我:

class myfirstSpider(CrawlSpider):

name = 'myfirst'

allowed_domains= ["leroymerlin.es"]

start_urls = ["https://www.leroymerlin.es/decoracion-navidena/arboles-navidad?index=%s" % (page_number) for page_number in range(2)]

def __init__(self, nombre=None, *args, **kwargs):

self.rules = (

Rule(LinkExtractor(allow= nombre), callback = 'parse_item'),)

super(myfirstSpider, self).__init__(*args, **kwargs)

def parse_item(self, response):

items = myfirstItem()

product_name = response.css ('.titleTechniqueSheet::text').extract()

items['product_name'] = product_name

yield items

和命令:

scrapy crawl myfirst -a nombre="vermont"

谢谢大家! 问题来源StackOverflow 地址:/questions/59383208/scrapy-how-to-use-arguments-for-multiple-search-terms

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值