Python——Scrapy爬虫学习(1)——爬虫框架产生

本文介绍了如何使用Scrapy构建一个简单的爬虫项目。首先,通过`scrapy startproject`命令创建名为python123demo的工程。接着,生成名为demo的爬虫,设置爬虫名、允许的域名和起始URL。然后,配置爬虫以保存解析后的页面。最后,解决在Windows系统上运行爬虫时遇到的问题,通过安装pypiwin32模块来确保爬虫成功运行,并捕获页面内容存储在demo.html中。
摘要由CSDN通过智能技术生成

演示地址:http://python123.io/ws/demo.html

文件名称:demo.html

产生爬虫框架:

1、建立一个scrapy爬虫工程

2、在工程中产生一个scrapy爬虫

3、配置spider爬虫

4、运行爬虫,获取网页

具体操作:

1、建立工程

定义一个工程,名称为:python123demo

方法:

在cmd中,d:  进入d盘,   cd pycodes  进入文件pycodes

然后输入

scrapy startproject python123demo

在pycodes中会生成一个文件:




_init_.py不需要用户编写




2、在工程中产生一个scrapy爬虫

执行一条命令,给出爬虫名字和爬取的网站

产生爬虫:


生成一个名称为 demo 的spider

仅限生成 demo.py,其内容为:


name = 'demo'  当前爬虫名字为demo

allowed_domains =  ```   爬取该网站域名以下的链接,该域名由cmd命令台输入

start_urls = [] 爬取的初始页面


parse()用于处理相应,解析内容形成字典,发现新的url爬取请求



3、配置产生的spider爬虫,使之满足我们的需求

将解析的页面保存成文件

修改demo.py文件



4、运行爬虫,获取网页

打开cmd输入命令行进行爬虫



然后我的电脑上出现了一个错误


windows系统上出现这个问题的解决需要安装Py32Win模块,但是直接通过官网链接装exe会出现几百个错误,更方便的做法是


pip3 install pypiwin32 

这是py3的解决方案

注意:py3版本如果用 pip install pypiwin32指令会发生错误

安装完成后,重新进行爬虫,成功!撒花!


捕获页面存储在 demo.html文件中










demo.py  所对应的完整代码:


两版本等价:




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值