使用 lxml 中的 xpath 高效提取文本与标签属性值

以下代码在 python 3.5 + jupyter notebook 中运行测试无误!

# 我们爬取网页的目的,无非是先定位到DOM树的节点,然后取其文本或属性值

myPage = '''<html>
        <title>TITLE</title>
        <body>
        <h1>我的博客</h1>
        <div>我的文章</div>
        <div id="photos">
         <img src="pic1.jpeg"/><span id="pic1">PIC1 is beautiful!</span>
         <img src="pic2.jpeg"/><span id="pic2">PIC2 is beautiful!</span>
         <p><a href="http://www.example.com/more_pic.html">更多美图</a></p>
         <a href="http://www.baidu.com">去往百度</a>
         <a href="http://www.163.com">去往网易</a>
         <a href="http://www.sohu.com">去往搜狐</a>
        </div>
        <p class="myclassname">Hello,\nworld!<br/>-- by Adam</p>
        <div class="foot">放在尾部的其他一些说明</div>
        </body>
        </html>'''

html = etree.fromstring(myPage)

# 一、定位
divs1 = html.xpath('//div')
divs2 = html.xpath('//div[@id]')
divs3 = html.xpath('//div[@class="foot"]')
divs4 = html.xpath('//div[@*]')
divs5 = html.xpath('//div[1]')
divs6 = html.xpath('//div[last()-1]')
divs7 = html.xpath('//div[position()<3]')
divs8 = html.xpath('//div|//h1')
divs9 = html.xpath('//div[not(@*)]')

# 二、取文本 text() 区别 html.xpath('string()')
text1 = html.xpath('//div/text()')
text2 = html.xpath('//div[@id]/text()')
text3 = html.xpath('//div[@class="foot"]/text()')
text4 = html.xpath('//div[@*]/text()')
text5 = html.xpath('//div[1]/text()')
text6 = html.xpath('//div[last()-1]/text()')
text7 = html.xpath('//div[position()<3]/text()')
text8 = html.xpath('//div/text()|//h1/text()')


# 三、取属性 @
value1 = html.xpath('//a/@href')
value2 = html.xpath('//img/@src')
value3 = html.xpath('//div[2]/span/@id')


# 四、定位(进阶)
# 1.文档(DOM)元素(Element)的find,findall方法
divs = html.xpath('//div[position()<3]')
for div in divs:
    ass = div.findall('a')  # 这里只能找到:div->a, 找不到:div->p->a
    for a in ass:
        if a is not None:
            #print(dir(a))
            print(a.text, a.attrib.get('href')) #文档(DOM)元素(Element)的属性:text, attrib

# 2.与1等价
a_href = html.xpath('//div[position()<3]/a/@href')
print(a_href)

# 3.注意与1、2的区别
a_href = html.xpath('//div[position()<3]//a/@href')
print(a_href)
  • 6
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
lxml,可以使用.xpath()方法来进行XPath表达式的解析和节点的定位。XPath是一种在XML文档查找信息的语言,用于导航和定位文档的节点。而lxml是一个用于解析XML文档和HTML文档的Python库。 要使用.xpath()方法,首先需要安装lxml库,可以通过命令行输入"pip install lxml"或者"easy_install lxml"来进行安装。安装完成后,可以在Python代码导入lxml库并使用xpath功能。 在使用.xpath()方法时,需要传入一个XPath表达式作为参数,该表达式用于定位文档的节点。例如,可以使用以下代码定位所有的a标签节点: ``` from lxml import etree html = """ <html> <body> <a href="https://www.example.com">Example Link</a> </body> </html> """ # 创建一个XPath解析器 parser = etree.HTMLParser() # 解析HTML文档 tree = etree.parse(StringIO(html), parser) # 使用XPath表达式定位所有的a标签节点 nodes = tree.xpath("//a") # 打印节点文本内容和链接属性 for node in nodes: print(node.text, node.get("href")) ``` 在上述代码,首先创建了一个XPath解析器,并通过etree.parse()方法解析了一个HTML文档。然后,使用.xpath()方法传入XPath表达式"//a"来定位所有的a标签节点。最后,遍历这些节点,并打印出节点的文本内容和链接属性。 需要注意的是,XPath表达式的双斜杠"//"表示选取文档的所有匹配节点,而a标签则通过标签名来进行匹配。 综上所述,lxml的.xpath()方法可以用于解析XPath表达式和定位节点,以便于在XML或HTML文档查找和提取信息。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [【Python实用】Python解析库lxmlxpath用法总结](https://blog.csdn.net/qq_41823684/article/details/115146573)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [Python利用xpath解析HTML的方法](https://download.csdn.net/download/weixin_38531788/13762717)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值