scrapy框架的第一个爬虫实例

该博客介绍了如何使用Scrapy框架创建一个简单的爬虫,目标是抓取并保存https://python123.io/ws/demo.html的HTML页面。首先创建Scrapy项目,然后生成并配置Spider,最后运行爬虫将网页内容存储为本地文件。
摘要由CSDN通过智能技术生成

访问:https://python123.io/ws/demo.html

产生步骤:
步骤一:简历一个Scrapy爬虫工程
步骤二:在工程中产生一个Scrapy爬虫
步骤三:配置产生的Spider爬虫,使它满足需求
步骤四:运行,获取网页
一;
1.新建文件夹pycodes
在这里插入图片描述
文件中会自动生成各种模块:
在这里插入图片描述
python123demo/-------------外层目录
-----介绍了内部的各种目录的功能
二;
在这里插入图片描述
这样在命令行命令下,就生成了一个文件:
在这里插入图片描述
打开:
在这里插入图片描述
三;
修改DEMO
我们这个例程的目的是:将爬取的html页面存成文件

四;
在cmd中执行命令
scrapy crawl demo
这样就捕获到了页面文件:
在这里插入图片描述
简化版代码入下:

# -*- coding: utf-8 -*-
import scrapy

class DemoSpider(scrapy.Spider):
    name = 'demo'
   # allowed_domains = ['python123.io']
    start_urls = ['https://python123.io/ws/demo.html']

    def parse(self, response):    #更改爬取方法  :2个参数   面向对象所示关系的标记 ; 网络中返回的对象
        fname = response.url.split('/')[-1]    #定义文件的名字   从响应的文件中提取响应作为文件的名字
        with open(fname,'wb') as f:            #返回地内容保存为文件
            f.write(response.body)
        self.log('Saved file %s.' % name)
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值