xpath获取标签的属性值_爬虫学习之xpath

adf5828c23d9bc98386f05e7980aab36.png

前面学习了使用requests获取页面源码,今天一起学习如何解析源码?

xpath表达式:

是最常用最便捷高效的一种解析方式且,通用性强。

解析原理: 1、实例化一个etree对象,且需要将被解析的页面源码数据加载到该etree对象中。 2、调用etree对象中的xpath方法,结合xpath表达式实现标签定位和内容获取。

环境安装: pip install lxml

实例化etree对象: from lxml import etree

1、将本地html文档加载: etree.parse(filePath) 2、将互联网获取的源码加载 etree.HTML('page_text') 3、xpath表达式

/:表示从根节点开始定位。表示一个层级。//:表示多个层级。可以表示从任意位置开始定位。属性定位://div[@class='song']     tag[@attrName='atttrValue']索引定位://div[@class='song']/p[3]    索引从1开始取文本:      /text():获取的是标签中直系的文本内容     //text():获取的非直系的文本内容(所有的文本内容)取属性:     /@attrName     ==>img/src​

程序源码(爬取指定页面,解析其中的LI列表,并保存为TXT文本文件):

import requestsfrom lxml import etree​headers = {         'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',     }if __name__ == "__main__":    # 获取页面源码     url = 'https://weixin.qq.com/'     page_text = requests.get(url=url, headers=headers).text​     # 数据解析     tree = etree.HTML(page_text)     li_list = tree.xpath('/html/body/div/div/div[2]/div[3]/ul/li')        #将li对象列表赋值给li_list变量     print(li_list)​     fp = open('test.txt', 'w', encoding='utf-8')    # 循环遍历列表对象     for li in li_list:         title = li.xpath('./a/text()')[0]      # /text():获取的是标签中直系的文本内容         print(title)         fp.write(title+'')   #写入文本文件,并添加换行符
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用XPath可以方便地获取HTML标签属性。例如,如果我们想要获取所有名称为"title",同时属性"lang"的为"eng"的节点的属性,可以使用以下XPath表达式://title[@lang='eng']/@属性名。其中,"属性名"是你想要获取的具体属性的名称。 如果我们想要同时匹配多个属性来确定一个节点,可以使用运算符"and"来连接多个属性条件。例如,在Python的lxml库中,可以使用以下代码获取多个属性匹配的节点属性: from lxml import etree text = '<li class="li li-first"><a href="link.html">first item</a></li>' html = etree.HTML(text) result = html.xpath('//li[contains(@class, "li") and @name="item"]/a/@属性名') print(result) 这个代码片段将返回所有名称为"li",同时属性"class"包含"li",并且属性"name"的为"item"的节点的属性。你可以将"属性名"替换为你想要获取的具体属性的名称。 需要注意的是,XPath表达式中的"/@属性名"表示获取节点的某个属性,而不是获取节点的文本内容。如果想要获取节点的文本内容,可以使用"text()"方法,例如"//li/a/text()"表示获取所有"li"标签下的"a"标签的文本内容。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [Python爬虫从入门到精通——解析库XPath的使用](https://blog.csdn.net/hy592070616/article/details/90610339)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [xpath获取标签属性_解析库之Xpath,pyquery](https://blog.csdn.net/weixin_39843431/article/details/109961000)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值