【爬虫专区】十行代码开启scarpy多网站爬虫时代

不就是同时启动多个爬虫程序吗?

文章里这么多大神搞这么复杂干嘛?

简单事情复杂化干嘛?

第一步:设置好多个爬虫程序

这是第一个test_1.py文件

import scrapy

class XiachufangSpider(scrapy.Spider):
    name = 'test_1'
    start_urls = ['http://www.qingnian8.com/']

    def parse(self, response, **kwargs):
        url = response.xpath('/html/body/div[2]/div[3]/div[1]/div[1]/div[2]/ul/li[2]/a//text()').extract()
        print(url)

 这是第二个test_2.py文件

import scrapy

class XiachufangSpider(scrapy.Spider):
    name = 'test_2'
    start_urls = ['http://www.qingnian8.com/']

    def parse(self, response, **kwargs):
        url = response.xpath('/html/body/div[2]/div[3]/div[1]/div[1]/div[2]/ul/li[12]/a//text()').extract()
        print(url)

然后再main.py启动文件中输入以下代码,这么简单,就自己看吧

from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings


# 在Scrapy框架内控制爬虫
if __name__ == "__main__":
    process = CrawlerProcess(get_project_settings())


    process.crawl("zhihu")

    process.crawl("test_1")

    print('-----爬虫启动-----')
    process.start()
    process.start()

就这么简单就能启动多个爬虫程序了,不知道为什么这么多大神非要搞这么复杂。。查了我半天资料,原来就十行代码的事情

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

星盾网安

能花钱买到的知识,都不贵

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值