【爬虫专区】十行代码开启scarpy多网站爬虫时代
不就是同时启动多个爬虫程序吗?文章里这么多大神搞这么复杂干嘛?简单事情复杂化干嘛?第一步:设置好多个爬虫程序这是第一个test_1.py文件import scrapyclass XiachufangSpider(scrapy.Spider): name = 'test_1' start_urls = ['http://www.qingnian8.com/'] def parse(self, response, **kwargs): ur
原创
2021-10-13 11:19:28 ·
161 阅读 ·
0 评论