【爬虫实战】起点中文网排行榜(XPath)

前言

保存起点中文网月票榜的排名、书名、作者、链接到 excel 中。

在这里插入图片描述

分析HTML

  • 打开 起点中文网
  • F12进入开发者模式,点击图片的选中区域,之后可以在网页中定位代码位置。
  • 接着分析 HTML 文档内容,确定要抽取标记的位置。起点月票榜的小说名称在<div class=’book-mid-info’>下的<h4>下的 <a>标记中,作者在<p class=’author’>下的第一个<a>中。

在这里插入图片描述

HTML源代码获取

# 使用xPath爬取起点小说月票榜书名和作者
import requests, openpyxl
from lxml import etree

# 获取HTML源码
def getHtml(url):
    try:
        # 用户代理
        headers = {'User_Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'}
        # 获取请求对象
        r = requests.get(url, timeout=5, headers=headers)
        r.raise_for_status()

        # 返回页面内容
        return r.text
    except Exception as e:
        print(e.__traceback__)

解析网页内容

使用XPath解析,相关语法学习请参考 爬虫进阶- XPath应用

# 解析内容
def getInfo(text):
    # 获取xpath解析对象
    e = etree.HTML(text)
    # 获取所有书的名称
    names = e.xpath('//div[@class="book-mid-info"]/h4/a/text()')
    # 获取所有作者
    authors = e.xpath('//p[@class="author"]/a[1]/text()')
    # 获取链接
    links = e.xpath('//div[@class="book-mid-info"]/h4/a/@href')
	
	# 合并为元组返回
    return zip(names, authors, links)

输出结果

输出结果到excel表格中

# 保存数据
def save(i, data, ws):

    index = (i-1)*20+1
    for name, author, link in data:
        ws.append([index, name, author, link])
        index += 1

完整代码

由于页面共有5页,分析得每页20个小说,共100部。

在这里插入图片描述
网址https://www.qidian.com/rank/yuepiao?page=2

在这里插入图片描述
因此代码稍作修改,爬取全部页面内容。

# 使用xPath爬取起点小说月票榜书名和作者
import requests, openpyxl
from lxml import etree

# 获取HTML源码
def getHtml(url):
    try:
        # 用户代理
        headers = {'User_Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'}
        # 获取请求对象
        r = requests.get(url, timeout=5, headers=headers)
        r.raise_for_status()

        # 返回页面内容
        return r.text
    except Exception as e:
        print(e.__traceback__)

# 解析内容
def getInfo(text):
    # 获取xpath解析对象
    e = etree.HTML(text)
    # 获取所有书的名称
    names = e.xpath('//div[@class="book-mid-info"]/h4/a/text()')
    # 获取所有作者
    authors = e.xpath('//p[@class="author"]/a[1]/text()')
    # 获取链接
    links = e.xpath('//div[@class="book-mid-info"]/h4/a/@href')

    return zip(names, authors, links)

# 保存数据
def save(i, data, ws):
	# 排名信息
    index = (i-1)*20+1
    for name, author, link in data:
        ws.append([index, name, author, link])
        index += 1


if __name__=='__main__':
    # 创建excel文件
    # 获取工作簿
    wb = openpyxl.Workbook()
    # 获取工作表
    ws = wb.active
    # 设置工作表名
    ws.title = '起点中文网月票榜'
    # 设置表头
    ws.append(['排名', '名称', '作者', '链接'])

    # url = 'https://www.qidian.com/rank/yuepiao'
    # https://www.qidian.com/rank/yuepiao?page=1
    # 共5页
    for i in range(1, 6):
        url = 'https://www.qidian.com/rank/yuepiao?page='+str(i)
        text = getHtml(url)
        data = getInfo(text)

        save(i, data, ws)

    # 保存
    wb.save('qidian.xlsx')

结果展示

在这里插入图片描述

后序

如果需要其他作品信息,方法类似。

比如,获取作品简介,可以使用XPath解析:
//p[@class="intro"/text()]

感谢努力,一起加油!

评论 20
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

chaser&upper

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值