Python爬虫入门(三)数据提取(BeautifulSoup)

本文介绍了Python爬虫中BeautifulSoup4库的使用,包括解析器选择、find_all方法、css选择器的运用,以及四个常用对象和遍历文档树的方法。示例展示了如何利用BeautifulSoup提取网页数据并进行实际应用。
摘要由CSDN通过智能技术生成

BeautifulSoup4库

和lxml一样,BeautifulSoup也是一个 基于HTML/XML的解析器,主要功能也是如何解析和提取html/xml数据

Lxml只会局部遍历,而beautifulsoup是基于HTML DOM(Document Object Model)的,会载入整个文档,解析整个DOM树,因此需要的时间和内存开销会大,性能要低于lxml

Beautifulsoup用来解析html比较简单,api比较人性化,支持css选择器、python标准库中的html解析器,也支持lxml的xml解析器

安装:pip install bs4

 

使用方法:

from urllib import request
from bs4 import BeautifulSoup

url = "http://www.baidu.com"
rsp = request.urlopen(url)
content = rsp.read()

soup = BeautifulSoup(content, "html.parser") #解析器为html.parser,如果不指定解析器则使用默认解析器
print(soup.title.string)

解析器比较

 

find_all的使用:

1.在提取标签的时候,第一个参数是标签的名字。然后如果在提取标签的时候想要使用标签属性过滤,那么可以在这个方法中通过关键字参数的形式,将属性的名字以及对应的值传进去,或者使用sttrs属性,将所有的属性以及他的值放在一个字典中传给attrs属性

2.有些时候,在提取标签的时候,不想提取那么多,可以使用limit参数,限制提取个数。

find和find_all的区别:

1.find:找到第一个满足条件的标签返回。(一个)

2.find_

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Story–teller

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值