爬虫基础-通过etree+xpath和beautifulsoup+selector爬取数据

前言

这是个十分简单的爬虫小练习
我们的目标是爬取这个小网页中的人名
在这里插入图片描述
分析网页结构供下面解析网页数据使用
在这里插入图片描述

第一步.导入所需要的etree类和BeautifulSoup类

from lxml import etree #这个导入后时可能会报错但不影响使用
from bs4 import BeautifulSoup

第二步.获取到网页源代码(由于我使用的是个网页文件,我这里就直接打开这个文件)

with open("D:/桌面/html_doc.html","r") as f: #里面的路径是网页文件所在的路径
    data = f.read()

第三步.对网页数据进行解析

1.etree+xpath的方法解析数据

from lxml import etree
with open("D:/桌面/html_doc.html","r") as f:
    data = f.read()
h = lxml.etree.HTML(data) #对需要匹配的HTML对象进行初始化
# name_list = h.xpath('/html/body/p[2]/a/text()') ##绝对路径
name_list = h.xpath('//a/text()') ##相对路径
for i in name_list:
    name = i.strip()
    print(name)

2.beautifulsoup+selector的方法解析数据

from bs4 import BeautifulSoup

with open("D:/桌面/html_doc.html","r") as f:
    soup = BeautifulSoup(f,features='lxml')
# name_list = soup.select('html>body>p:nth-last-child(2)>a') ##绝对路径
name_list = soup.select('a') ##相对路径
for i in name_list:
    name = i.text.strip()
    print(name)

大致就是这样,写的比较简易

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

叮咚渣

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值