实战Scrapy中文网存入MySQL

本文介绍了如何使用Scrapy爬虫框架抓取Scrapy中文网实验室的内容,并将数据存储到MySQL数据库中。通过创建项目、定义items、编写蜘蛛文件、配置MySQL存储插件、启动pipeline以及在MySQL中创建数据库和表,实现了全站数据的爬取与存储。在实际运行过程中,由于未设置主键自动增长导致错误,设置后成功运行。
摘要由CSDN通过智能技术生成
	 本机环境:win7 64位   Python3.6   Scrapy1.5

环境看了,接下来看一下我们要实现的需求,我们还是爬取Scrapy中文网实验室的内容,也就是这么个网址里面的东东:http://lab.scrapyd.cn,这里的话请诸君可能要问了,怎么又是这个网址,之所以这样,是因为这个网址是我们专门维护的,那就能避免因沧海桑田打不开网址、让你的爬虫实验无法完成的问题,最终也能让你快速掌握scrapy数据存入MySQL的原理。好了,来看我们的需求:
在这里插入图片描述
好了就这么个需求,也就是把整个lab.scrapyd.cn的内容都拿下,这里的话其实也就是scrapy爬取下一页的内容,若不清楚,请参看文档:《scrapy下一页(多页)爬取》,很简单,接下来我们一步、一步来!

一、创建蜘蛛项目
1:scrapy startproject scrapyMysql

二、编写要存入数据库的字段item
进入scrapyMysql/scrapyMysql目录下,打开:items.py,编写相应的items,item其实就是对应着我们的字段,这里我们只存两个字段:名言、标签,因此这里我们就添加两个item,代码如下

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值