xpath爬取页面内容保存成文档_使用XPath爬取网页数据

本篇博客介绍如何利用XPath爬取网页上的博客标题和URL。通过分析网页源码,获取XPath路径,使用Python的requests和lxml库实现爬虫。示例中展示了从特定博客页面抓取标题和链接的过程,强调XPath相对于BeautifulSoup的简洁性,并提供了lxml库的安装方法。
摘要由CSDN通过智能技术生成

我们以我的博客为例,来爬取我所有写过的博客的标题。

首先,打开我的博客页面,右键“检查”开始进行网页分析。我们选中博客标题,再次右键“检查”即可找到标题相应的位置,我们继续点击右键,选择Copy,再点击Copy XPath,即可获得对应的XPath编码,我们可以先将它保存在一个文本文档中。

我们再多次对各个标题重复以上操作,即可得到关于标题的XPath编码的规律。我们不难看出,对于我的博客的标题的XPath编码格式为“//*[@id="mainContent"]/div/div[n]/div[2]/a”。

又因为我的博客共有2页,所以我们还需找到网页url的规律,经过分析,我们发现格式为'https://www.cnblogs.com/Chen-K/default.html?page='+str(i+1)。

下面便可开始写代码:

importrequestsfrom lxml importetreefor i in range(0,2):

url= 'https://www.cnblogs.com/Chen-K/default.html?page='+str(i+1)

html=requests.get(url)

etree_html=etree.HTML(html.text)

a= etree_html.xpath(&

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值