python爬虫实训实验报告_用Pycharm进行scrapy爬虫的实验报告

本次实验使用Pycharm和Scrapy框架,针对红袖小说网的前十页作品信息进行爬取。在Windows 10环境下,通过分析网页结构,制定了爬取逻辑,包括获取每本小说的名称、类别、作者、总字数、点击量、收藏量、简介和封面图片URL。详细介绍了爬虫文件结构,包括book.py、items.py、begin.py和pipelines.py的代码实现。实验最终将数据以JSON格式保存。
摘要由CSDN通过智能技术生成

1. 实验内容

使用Pycharm写代码,采用scrapy爬取红袖小说网前十页的作品信息。

2. 试验环境

操作系统:window10 家庭版64位操作系统

Python版本:python 3.7.3

3. 实验

3.1 观察网页结构,制定爬取逻辑

使用firefox浏览器打开红袖小说网,使用开发者工具(Fn+F12)观察网页结构,获取相应元素的xpath语句。

由于我们需要在每本小说的详情页中进行文本的提取,所以这里需要观察每一页的网址构成找出规律。

d17e6d41858b

网址链接分为三部分:主页+gender+catID

在此处我选择前十页的作品进行信息的爬取。

随便挑选一本小说的详情页进行网页结构解析,此处为小说名称、作者、小说类别的元素所在位置。

d17e6d41858b

小说名称、作者、小说类别

此为这本小说的总字数、收藏量、点击量和简介的元素所在位置。

d17e6d41858b

说的总字数、收藏量、点击量和简介

这是小说封面图片的url

d17e6d41858b

图片的url

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值