pyshon根据id更换爬取网页_Python-爬虫基础-Xpath配合获取网页特定标签内容

上一篇MonkeyLei:Python-爬取页面内容(涉及urllib、requests、UserAgent、Json等) 我们爬取了内容,接下来就可以用xPath做内容分析了,进而获取我们想要爬的内容。

xPath知识有必要了解,然后我们需要做点实践学习熟悉它....

1. 先看基本语法

https://www.w3school.com.cn/xpath/xpath_syntax.asp

https://blog.csdn.net/Nikki0126/article/details/90752678 - 基本照着这个就可以实践了,还是比较清晰。

开始之前需要安装浏览器xPath插件哟 MonkeyLei:解决Chrome插件安装时程序包无效【CRX_HEADER_INVALID】(转载+xPath插件)

难点应该就在于语法如何写,以及根据自己的需求定制语法规则...

2. 几个点

ec2f21a9ed8aaab94cc790e8fe18de93.png

比如我们xPath工具去google浏览器瞅瞅 - 这个得出来的规则按需完善后就可以直接运用到代码里面->html_object.xpath('//*[@id="talented"]/div[2]/ul/li/span/a/@href')

ff6b6b2768faf59fe14dd942743f5085.png

5aa12a73611af4d5169471a0f8c6741d.png

3. 开始实践

xpath.py

#!/usr/bin/python3
# -*- coding: UTF-8 -*-
# 文件名:xpath.py

from lxml import etree
from urllib import request

# 1. 先来个简单的吧 缺</body> </html>,后面用etree.tostring可以补全!
url = '''
<!DOCTYPE html>
<html>
<head lang="en">
    <meta charset="UTF-8">
    <title>网页标题</title>
</head>
<body>
<div id="content">
    <ul id="message">
        <li>这是第一条信息</li>
    </ul>
    <ul id="empty">
        <li>空数据</li>
    </ul>
    <div id="urls">
        <a href="http://www.neu.edu.cn/">东北大学</a>
    </div>
</div>
'''
data = url

# 2. 解析首页列表
if data:
    # print(data)
    # 转换为html对象,以便进行path查找
    html_object = etree.HTML(data)
    # 补全网页字符串
    last_html_data = etree.tostring(html_object)
    # 再次转换为html对象,以便进行path查找
    html_object = etree.HTML(last_html_data)
    # 利用浏览器插件Chrome插件XPath Helper获取标签格式,然后进行查找
    # 格式类似: '//*[@id="page"]/div/div/div[2]/div[2]/div[1]/div[2]'
    '''
    // 定位根节点
    / 往下层寻找
    / text()提取文本内容,  比如:/li/text() - 提取li的文本内容
    /@XXX提取XXX属性内容, 比如: a/@href - 提取a的href属性
    [@id="xx"]获取指定id属性内容, 比如: ul[@id="name_list"] - 提取id为name_list的ul列表
    '''
    result = html_object.xpath('//*')  # '//'表示获取当前节点子孙节点,'*'表示所有节点,'//*'表示获取当前节点下所有节点
    for item in result:
        print(item)
        ''' ......
            <Element div at 0x160cd84eb48>
            <Element ul at 0x160cdc90e08>
            ....
        '''
    # 获取ui的li的文本内容
    path_data = html_object.xpath('//div[@id="content"]/ul/li/text()')
    for item in path_data:
        print(item)
    # 获取指定ul的li的内容
    path_data = html_object.xpath('//div[@id="content"]/ul[@id="message"]/li/text()')
    for item in path_data:
        print(item)
    # 当前标签比较单一的时候,可以不用id指定,直接找想要的值 - 灵活应对吧
    path_data = html_object.xpath('//div/div/a/@href')
    for item in path_data:
        print(item)

# 再来个获取公开政策的网站 - 需要伪装成浏览器访问;不知道这样举例恰当不,政策网站还是不要乱爬吧!算了,改成大学的吧..我母校...
from fake_useragent import UserAgent
ua = UserAgent()
headers = {
    'User-Agent': ua.random
}
if True:
    url = 'http://www.neu.edu.cn/'
    req = request.Request(url, None, headers)
    data = ''
    with request.urlopen(req) as uf:
        while True:
            data_temp = uf.read(1024)
            if not data_temp:
                break
            data += data_temp.decode('utf-8', 'ignore')

    # 2. 解析获取需要内容
    if data:
        # 转换为html对象,以便进行path查找
        html_object = etree.HTML(data)
        # 补全网页吧
        last_html_data = etree.tostring(html_object)
        # 再次转换为html对象,以便进行path查找
        html_object = etree.HTML(last_html_data)
        # 从网页工具xPath里面去获取规则,根据路径一层层往下找就行(这样能精准一些,但是如果标识都一样,且很多,数据就会很多
        path_data = html_object.xpath('//*[@id="talented"]/div[2]/ul/li/span/a/@href')  # //*[@id="talented"]/div[2]/ul/li/span/a/@href
        # 专注人才培养[@id="talented"]下面的列表
        for item in path_data:
            print(item)  # 得到路径补可能需要自己补全

代码里面都做了说明的,,应该还好

4cd546c74e3b652eb0fa93fd7b90e0f0.png

注意:得到的结果不管是几个都是一个数组。如果你有多个tab,多个div,而你需要只获取第一个,你就可以div[1]索引来获取,统一ul[1], li[n]也可以。。。

另外直接访问网站可能会有错误,400, 403等。需要你伪装浏览器的样子,另外涉及到表单之类的可能还需要你去查看form_data或者header,然后添加相关参数,认证才能访问。这个看实际怎么个情况吧。。。。

先这样记录下。大概知道怎么弄就行。。。后续真搞这个,还不是得深入。老规矩,多喝水,多放松,多走动,多锻炼,早睡早起!一起加油。。 回头还得继续我的Android深入。。。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值