Scrapy爬虫系列笔记之六:使用item以及对得到的数据进行存储以及处理_by_书訢

建议参照目录大纲,即笔记第一篇来了解大致路线后进行博客查阅。每大章的分支都十分清楚。

2.3将得到的数据进行存储

将一个url中的内容进行下载,并且使用选择器进行选择以后得到了内容。应该怎么将我们得到的内容进行存储呢?

步骤如下:
1.在items中定制我们自己的item

class ArticleItem(scrapy.Item):
 title = scrapy.Field()
 field = scrapy.Field()
 time = scrapy.Field()
 tag = scrapy.Field()

2.在parse函数中实例化item类,并进行填充数据

from ArticleSpiser.item import ArticleItem
def parse(self,response):
 article_item = ArticleItem()
 '''
 逻辑代码
 假设我们通过选择器得到了title,field,time,tag的值
 '''
 #进行填充
 article_item["title"] = title
 article_item["field"] = field
 article_item["time"] = time
 article_item["tag"] = tag
 yeild article_item

3.这样将item对象yeild以后就会传递到pipelines中去
我们在pipeline中操作就可以实现数据存储到文件,数据库了
文件保存以及数据库存储就不展开了,资料很多

综上完成静态网站的爬取以及数据存储。

笔记一到十链接
http://blog.csdn.net/sx_csu2016sw/article/details/79284369
http://blog.csdn.net/sx_csu2016sw/article/details/79284427
http://blog.csdn.net/sx_csu2016sw/article/details/79284449
http://blog.csdn.net/sx_csu2016sw/article/details/79284469
http://blog.csdn.net/sx_csu2016sw/article/details/79284481
http://blog.csdn.net/sx_csu2016sw/article/details/79284491
http://blog.csdn.net/sx_csu2016sw/article/details/79284509
http://blog.csdn.net/sx_csu2016sw/article/details/79284525
http://blog.csdn.net/sx_csu2016sw/article/details/79284547
http://blog.csdn.net/sx_csu2016sw/article/details/79284567

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值