scrapy爬虫框架基础使用知识

1.确保安装了myscrapy模块(爬虫专用)

2.scrapy startproject project_name

创建项目名为project_name的爬虫项目
在这里插入图片描述
文件目录:
spiders:在这下面创建爬虫文件,可以有多个
init.py #默认的 不动
**.py #自己定义的操作数据的文件
items.py #定义需要爬取的数据
settings.py:爬虫配置文件
middlewares.py #用来对spider返回的item列表进行数据的保存等操作,可以写入文件或保存到数据库
scrapy.cfg #项目配置文件

第一步:先确认需要获取的信息有哪些,编辑items.py文件

第二步:在settings.py中指定将items.py获取的内容输出到文件:
FEED_URI=‘Create_Account_info_2.xls’
FEED_FORMAT=‘xls’
FEED_EXPORT_ENCODING=‘ansi’

3.scrapy genspider 爬虫文件名 “域名”

在这里插入图片描述
这里进行数据获取
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值