python爬虫 xpath

xpath用法练习

找了一个小说网站作为例子 获取排行榜内容

 一、分析网页结构

在一个id为main的div中有6个类名是box b1-b4的div

然后div中向下标签分别为ul li a

二、编写执行代码

两种方式去获取:

1.循环中获取所有排行榜 6个榜单

import requests
from lxml import html

if __name__ == '__main__':

    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:105.0) Gecko/20100101 Firefox/105.0'}
    web = requests.get('https://www.xxx.com/paihang.html', timeout=7, headers=headers)
    selector = html.etree.HTML(web.text)

    # 在循环中获取所有排行榜 总共6个榜单
    for n in range(1, 5):
        # 获取榜单标题
        title = selector.xpath('//div[@class="box b%d"]/h3/text()' % n)
        print(title)
        # 获取小说名称
        article = selector.xpath('//div[@class="box b%d"]/ul/li/a/text()' % n)
        # 获取小说链接
        hrefs = selector.xpath('//div[@class="box b%d"]/ul/li/a/@href' % n)
        for i, x in enumerate(article):
            print(i, x)

输出结果

2.使用共有属性 获取全部榜单

import requests
from lxml import html


if __name__ == '__main__':

    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:105.0) Gecko/20100101 Firefox/105.0'}
    web = requests.get('https://www.xxx.com/paihang.html', timeout=7, headers=headers)
    selector = html.etree.HTML(web.text)

    # 获取小说名称
    article = selector.xpath('//div[starts-with(@class, "box")]/ul/li/a/text()')
    # 获取小说链接
    attr = selector.xpath('//div[starts-with(@class, "box")]/ul/li/a/@href')
    for i, x in enumerate(article):
        print(i, x)

输出结果:

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

JSON_L

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值