scrapy爬虫网站数据

本文介绍了如何使用scrapy爬虫框架抓取传智播客C/C++讲师的姓名、职称和个人简介。首先,确认已安装scrapy并创建项目,然后解析网页结构,编写相关文件包括itcast.py、items.py、settings.py和pipelines.py。最终运行scrapy命令,生成包含爬取数据的json文件。
摘要由CSDN通过智能技术生成

scrapy爬虫

一.目的
1.数据抓取之网络爬虫
2.scrapy的使用方法,能使用scrapy抓取网页数据。
二.能力图谱
在这里插入图片描述
三、内容
1.内容:爬取传智播客C/C++讲师的姓名、职称以及个人简介。
2.目标网址:http://www.itcast.cn/channel/teacher.shtml
3.软件: 已经成功 安装好scrapy框架 的pycharm软件 (专业版、社区版都可以)。
4.python3.7及以上。
5.使用scrapy框架实现爬虫,运用xpath解析方式。
四.过程
1、scrapy项目工程: 在pycharm界面中打开 View --> Tool Windows --> Terminal
(1) 验证scrapy是否成功安装: 在Terminal中输入 scrapy 看看是否显示scrapy信息
(2)创建scrapy项目工程 在Terminal中输入:
scrapy startproject + 自定义的项目名称
成功创建项目的目录为:scrapy startproject ITcast
文件说明: scrapy.cfg 项目的配置信息,主要为Scrapy命令行工具提供一个基础的配置信息。(真正爬虫相关的配置信息在settings.py文件中)
items.py:设置数据存储模板,用于结构化数据,如:Django的Model
pipelines.py:数据处理行为,如:一般结构化的数据持久化
settings.py:配置文件,如:递归的层数、并发数,延迟下载等
spiders:爬虫目录,如:创建文件,编写爬虫规则
(3)创建写爬虫的文件 # scrapy genspider +名称 + ‘网站’
建立爬虫文件结果为: scrapy genspider itcast “itcast.cn”
2、解析网页
观察网页,通过浏览器得出他们是这样子的结构,并且我们运用强大的xpath解析方式解析:
3、编写代码 需要编写四个相关联的文件:itcast.py、items.py、settings.py、pipelines.py (管道文件)。

(1) itcast.py 
 # -*- coding: utf-8 -*-
 import scrapy  
 #导入容器 
 from ITcast.items import  ItcastItem
 class ItcastSpider(scrapy.Spider):
                # 爬虫名 启动爬虫时需要的参数*必需    
                name = 'itcast'
                #
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱栗创

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值