Python爬虫学习记录(三):scrapy抓取结果的排序
目标
学了一点scrapy框架,自己实际操作一下,原来scrapy的多线程机制导致抓回来的数据是无序的,而我的测试目标是抓一本小说保存到一个txt文件中,对一个小白来说,可是让我想了好一阵子。
先想到的一个办法是存数据库,又觉得写库操作硬盘又得查询太麻烦;
python什么结构能像数据库一样存东西呢,知道的实在是太少,只想起了Pandas,大材小用了哈。
实现过程
先建了一个字典self.sn_dic,在抓取url入队列的时候把url和序号写入字典
class BbbSpider(scrapy.Spider):
name = 'bbb'
allowed_domains = ['www.xxx.la']
start_urls = ['http://www.xxx.la/10/10489/']
def __init__(self):
self.sn_dic={
}
def parse(self, response):
href_list=response.xpath('//div[@id="list"]/dl/dd/a/@href').extract()
num=0
for href in href_list:
url = 'http://www.xxx.la{}'.format(