使用scrapy框架爬取数据入库mysql

本文介绍了如何使用Scrapy框架抓取每日仓单数据,并将其存储到MySQL数据库的过程。从创建Scrapy项目,配置settings.py,定义items,解析网页,到设置pipeline实现数据入库,详细阐述了每个步骤的关键点,包括处理网页中的iframe和数据清洗。
摘要由CSDN通过智能技术生成

之前爬虫都使用原始的方法,或者用selenium自动化,首次接触scrapy框架,用时2天磕磕绊绊完成了数据爬取到入库,浅记录一下。

目标是完成每日仓单数据的抓取,并插入mysql数据库。

 一、scrapy项目的创建

1、先安装scrapy,打开终端使用pip install scrapy即可

2、创建scrapy项目:在终端要创建的目录下,输入:scrapy startproject myProject(项目名)

     此时会在当前目录下生成一个myProject的文件夹

打开myProject文件夹

 

3、进入此文件夹cd myProject后,通过scrapy genspider myspider(程序名) www.first_spider.com(域名?)生成蜘蛛程序。

4、此时再通过pycharm打开此myProject工程

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值