基础爬虫系列课程授课内容2——BeautifulSoup库的使用

19 篇文章 11 订阅
19 篇文章 9 订阅

BeautifulSoup库的使用

1、安装及导入 BeautifulSoup
BeautifulSoup 是一个可以从 HTML 或 XML 文件中提取数据的 Python 扩展库,是一个分析 HTML 或 XML 文件的解析器。它通过核实的转换器实现文档导航、查找、修改文档等功能;可以很好地处理不规范标记并生成剖析树(Parse Tree);提供的导航功能(Navigation)可以简单、快速地搜索剖析树以及修改剖析树。

BeautifulSoup 技术通常用于分析网页结构,爬取相应的 Web 文档,对于不规则的 HTML 文档提供一定的补全功能,从而节省开发者的时间和精力。

在 Python 3.x 中安装 BeautifulSoup 主要利用 pip 命令。
在命令行中输入以下命令即可下载安装:

pip install bs4

BeautifulSoup不仅支持 Python 标准库中的 HTML 解析器,还支持一些第三方的解析器,这里我们下载一个第三方的解析器——lxml:

pip install lxml

另外再下载一个可供选择的解析器是纯 Python 实现的 html5lib:

pip install html5lib

下面我们来简单对比一下各种解析器:
在这里插入图片描述
安装成功后,在程序中导入 BeautifulSoup 库方法如下:

from bs4 import BeautifulSoup

2、快速上手BeautifulSoup 解析
首先引入以下的一个简单 html 文件作为例子介绍 BeautifulSoup 的使用:

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>BeautifulSoup 技术</title>
</head>
<body>
<p class="title"><b>静夜思</b></p>
<p class="content">
    床前明月光,<br/>
    疑是地上霜。<br/>
    举头望明月,<br/>
    低头思故乡。<br/>
</p>
<p class="other">
    李白(701年-762年) ,字太白,号青莲居士,又号“谪仙人”,
    唐代伟大的浪漫主义诗人,被后人誉为“诗仙”,与
    <a href="https://baike.baidu.com/item/%E6%9D%9C%E7%94%AB/63508" class="poet" id="link1">杜甫</a>
    并称为“李杜”,为了与另两位诗人
    <a href="https://baike.baidu.com/item/%E6%9D%8E%E5%95%86%E9%9A%90/74852" class="poet" id="link2">李商隐</a><a href="https://baike.baidu.com/item/%E6%9D%9C%E7%89%A7" class="poet" id="link3">杜牧</a>
    即“小李杜”区别,杜甫与李白又合称“大李杜”。
    据《新唐书》记载,李白为兴圣皇帝(凉武昭王李暠)九世孙,与李唐诸王同宗。
    其人爽朗大方,爱饮酒作诗,喜交友。
</p>
</body>
</html>

将其保存为html文件,通过浏览器打开网页,效果如下图所示:
在这里插入图片描述
(2.1) BeautifulSoup 解析 HTML

# 通过解析HTML代码,创建一个 BeautifulSoup 对象,然后调用 prettify() 函数格式化输出网页
from bs4 import BeautifulSoup
 
html = '''
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>BeautifulSoup 技术</title>
</head>
<body>
<p class="title"><b>静夜思</b></p>
<p class="content">
    床前明月光,<br/>
    疑是地上霜。<br/>
    举头望明月,<br/>
    低头思故乡。<br/>
</p>
<p class="other">
    李白(701年-762年) ,字太白,号青莲居士,又号“谪仙人”,
    唐代伟大的浪漫主义诗人,被后人誉为“诗仙”,与
    <a href="https://baike.baidu.com/item/%E6%9D%9C%E7%94%AB/63508" class="poet" id="link1">杜甫</a>
    并称为“李杜”,为了与另两位诗人
    <a href="https://baike.baidu.com/item/%E6%9D%8E%E5%95%86%E9%9A%90/74852" class="poet" id="link2">李商隐</a>
    与<a href="https://baike.baidu.com/item/%E6%9D%9C%E7%89%A7" class="poet" id="link3">杜牧</a>
    即“小李杜”区别,杜甫与李白又合称“大李杜”。
    据《新唐书》记载,李白为兴圣皇帝(凉武昭王李暠)九世孙,与李唐诸王同宗。
    其人爽朗大方,爱饮酒作诗,喜交友。
</p>
'''
 
# 按照标准的所进行时的结构输出
soup = BeautifulSoup(html)
print(soup.prettify())

在这里插入图片描述
值得指出的是,前面定义的 HTML 代码源码标签中是缺少结束标签的,具体而言,缺少 和 标签,但是使用 prettify() 函数输出的结果已经自动补齐了结束标签,这是 BeautifulSoup 的一个优点。
BeautifulSoup 即使得到了一个损坏的标签,也会产生一个 DOM 树,并尽可能与原文档内容的含义一致,这种措施通常能够帮助用户更正确地搜集数据。

另外,还可以用本地 HTML 文件来创建 BeautifulSoup 对象

soup = BeautifulSoup(open('t.html'))

(2.2)简单获取网页标签信息
当使用 BeautifulSoup 解析网页时,有时会想获取某个标签之间的信息,具体代码如下:

from bs4 import BeautifulSoup
 
# 创建本地文件 soup 对象
soup = BeautifulSoup(open('t.html', encoding='utf-8'), "html.parser")
 
# 获取标题
title = soup.title
print('标题:', title)
 
# 获取头部
head = soup.head
print('头部:', head)
 
# 获取 a 标签
a = soup.a
print('超链接内容:', a)
 
# 获取 p 标签
p = soup.p
print('超链接内容:', p)

在这里插入图片描述
(2.3)定位标签并获取内容
下述代码将实现获取网页所有的超链接标签及对应的 URL 内容:

from bs4 import BeautifulSoup
 
# 创建本地文件 soup 对象
soup = BeautifulSoup(open('t.html', encoding='utf-8'), "html.parser")
 
# 从文档中找到 <a> 的所有标签链接
for a in soup.find_all('a'):
    print(a)
 
# 获取 <a> 的超链接
for link in soup.find_all('a'):
    print(link.get('href'))
 
# 获取文字内容
for poeter in soup.find_all('a'):
    print(poeter.get_text())

在这里插入图片描述
3、深入了解 BeautifulSoup
(3.1)BeautifulSoup 对象
BeautifulSoup 将复杂的 HTML 文档个转换成一个树形结构,每个节点都是 Python 对象,BeautifulSoup 官方文档将所有对象总结为 4 种:

  1. Tag;
  2. NavigableString;
  3. BeautifulSoup;
  4. Comment。

(3.1.1)Tag
Tag 对象表示 XML 或 HTML 文档中的标签,通俗地将就是 HTML 中的一个标签,该对象与 HTML 或 XML 原生文档中的标签相同。 Tag 有很多方法和属性,BeautifulSoup 中定义为 Soup.Tag,其中 Tag 为 HTML 中的标签,比如 head、title 等,其返回结果完整的标签内容,包括标签的属性和内容等。

<title>BeautifulSoup 技术</title>
<p class="title"><b>静夜思</b></p>
<a href="https://baike.baidu.com/item/%E6%9D%9C%E7%89%A7" class="poet" id="link3">杜牧</a>

例如上述代码中,title、p、a 等都是标签,起始标签(、<p>、<a>)和结束标签(</a></p>

、)之间加上内容就是 Tag。标签获取方法代码如下:
from bs4 import BeautifulSoup
 
# 创建本地文件 soup 对象
soup = BeautifulSoup(open('t.html', encoding='utf-8'), "html.parser")
 
print(soup.title)
print(soup.head)
print(soup.p)
print(soup.a)

在这里插入图片描述
值得注意一下的是,它返回的内容是多有标签中第一个符合要求的标签。
很显然,通过 BeautifulSoup 对象即可轻松获取标签和标签内容,这比第三讲中的正则表达式要方便得多。

# 该段代码输出的是该对象的类型,即Tag对象
from bs4 import BeautifulSoup
 
# 创建本地文件 soup 对象
soup = BeautifulSoup(open('t.html', encoding='utf-8'), "html.parser")
 
print(type(soup.html))

在这里插入图片描述
Tag 属性和方法众多,其中最重要的两个属性:name 和 attrs。
(1)name
name 属性用于获取文档树的标签名字。如果想获取 head 标签名字,则使用 soup.head.name 代码即可。对于内部标签,输出的值便为标签本身的名字。BeautifulSoup 对象本是比较特殊,它的 name 为 document。

print(soup.name)
print(soup.head.name)
print(soup.title.name)

在这里插入图片描述
(2)attrs
一个标签(Tag)可能有多个属性,例如:

<a href="https://baike.baidu.com/item/%E6%9D%9C%E7%94%AB/63508" class="poet" id="link1">杜甫</a>

它存在两个属性:一个是 class 属性,对应的值为“poet”;另一个是 id 属性,对应的值为“link1”。Tag 属性的操作方法与 Python 字典相同,获取 p 标签的所有属性代码如下,得到一个字典类型的值。它获取的是第一个段落 p 的属性及属性值。

print(soup.p.attrs)

在这里插入图片描述
如果要单独获取某个属性,则可以使用如下两种方法来获取超链接的 class 属性值。

print(soup.a['class'])
print(soup.a.get('class'))

在这里插入图片描述
BeautifulSoup 的每个标签 Tag 可能有多个属性,可以通过 “.attrs” 获取其属性。Tag 的属性可以被修改、删除、添加。
下面举个简单的例子进行介绍:

# 该段代码输出的是该对象的类型,即Tag对象
from bs4 import BeautifulSoup
 
# 创建本地文件 soup 对象
soup = BeautifulSoup('<b class="test" id="zzr">黄建雷</b>', "html.parser")
 
tag = soup.b
print(tag)
print(type(tag))
 
# NAME
print(tag.name)
print(tag.string)
 
# Attributes
print(tag.attrs)
print(tag['class'])
print(tag.get('id'))
 
# 修改属性,增加属性name
tag['class'] = 'abc'
tag['id'] = '1'
tag['name'] = '2'
print(tag)
 
# 删除属性
del tag['class']
del tag['name']
print(tag)
# print(tag['class']) # 此语句会报错

在这里插入图片描述

(3.1.2)NavigableString
前面介绍了如何获取标签的 name 和 attrs,如果想获取标签对应的内容,可以使用 string 属性获取。

from bs4 import BeautifulSoup
 
# 创建本地文件 soup 对象
soup = BeautifulSoup(open('t.html', encoding='utf-8'), "html.parser")
 
print(soup.a['class'])
print(soup.a.string)

在这里插入图片描述
由上述代码可以看出,利用 string 属性获取标签 <> 和 </> 之间的内容要比利用正则表达式方便得多。
BeautifulSoup 用 NavigableString 类来包装 Tag 中的字符串,其中,NavigableString 表示可遍历的字符串。一个 NavigableString 字符串与 Python 中的 Unicode 字符串相同,并且支持包含在遍历文档树和搜索文档树中的一些特性。

# 该段代码用来查看 NavigableString 的类型
from bs4 import BeautifulSoup
 
# 创建本地文件 soup 对象
soup = BeautifulSoup(open('t.html', encoding='utf-8'), "html.parser")
 
tag = soup.title
print(type(tag.string))

在这里插入图片描述
当然,通过 unicode() 方法可以直接将 NavigableString 对象转化成 Unicode 字符串。

from bs4 import BeautifulSoup
 
# 创建本地文件 soup 对象
soup = BeautifulSoup(open('t.html', encoding='utf-8'), "html.parser")
 
tag = soup.title
unicode_string = tag.string
print(unicode_string)

最后再说明一点,标签中包含的字符串不能编辑,但是可以被替换成其他的字符串,用 replace_with() 方法即可实现。
tag.string.replace(“替换前的内容”, " 替换后的内容 ")

from bs4 import BeautifulSoup
 
# 创建本地文件 soup 对象
soup = BeautifulSoup(open('t.html', encoding='utf-8'), "html.parser")
 
tag = soup.title
unicode_string = tag.string
print(unicode_string)
a = tag.string.replace("BeautifulSoup 技术", " NavigableString ")
print(a)

在这里插入图片描述
(3.1.3)BeautifulSoup对象
BeautifulSoup 对象表示的是一个文档的全部内容,通常情况下把它当做 Tag 对象。 BeautifulSoup 对象支持遍历文档树和搜索文档树中描述的大部分方法。

type(soup)
# <class 'bs4.BeautifulSoup'>

上述代码为调用 type() 函数查看 soup 变量的数据类型,即为 BeautifulSoup 对象类型。因为 BeautifulSoup 对象并不是真正的 HTML 和 XML 标签 Tag,所以它没有 name 和 attrs 属性。

但有时候查看 BeautifulSoup 对象的 “.name ” 属性是很方便的,因为其包含了一个值为“[ document ]”的特殊属性——soup.name。

soup.name
# [document]

(3.1.4) Comment
Comment 对象是一个特殊类型的 NavigableString 对象,用于处理注释对象。

# 本段代码用于读取注释内容
from bs4 import BeautifulSoup
 
markup = "<b><!--This is comment code.--></b>"
soup = BeautifulSoup(markup, "html.parser")
comment = soup.b.string
print(type(comment))
print(comment)

在这里插入图片描述
(3.2) 遍历文档树
在 BeautifulSoup 中,一个标签可能包含多个字符串或其他的标签,这些称为该标签的子标签。
( 3.2.1) 子节点
在 BeautifulSoup 中通过 contents 值获取标签的子节点内容,并以列表的形式输出。

# 本段代码用于获取 <head> 标签子节点内容
from bs4 import BeautifulSoup
 
# 创建本地文件 soup 对象
soup = BeautifulSoup(open('t.html', encoding='utf-8'), "html.parser")
 
print(soup.head.contents)

在这里插入图片描述
由于 之间存在两个换行,所以获取的列表包括两个换行,如果需要提取某个元素,代码如下:

print(soup.head.contents[3])

在这里插入图片描述
当然,也可以使用 children 关键字获取,但它返回的不是一个列表,而是可以通过遍历的方法获取所有子节点的内容。

print(soup.head.children)
for child in soup.head.children:
    print(child)

在这里插入图片描述
前面介绍的 contents 和 children 属性仅包含标签的直接子节点,如果需要获取 Tag 的所有子节点,甚至是子孙节点,则需要使用 descendants 属性。

for child in soup.descendants:
    print(child)

在这里插入图片描述
很显然,所有的 HTML 标签都打印出来了。

(3.2.2) 节点内容
如果标签只有一个子节点,且需要获取该子节点的内容,则使用 string 属性输出子节点的内容,通常返回嘴里层的标签内容。

# 本段代码用于获取标题内容
from bs4 import BeautifulSoup
 
# 创建本地文件 soup 对象
soup = BeautifulSoup(open('t.html', encoding='utf-8'), "html.parser")
 
print(soup.head.string)
print(soup.title.string)

在这里插入图片描述
从上述代码可以看出,当标签含有多个子节点时(内容包括两个换行元素),Tag 就无法确定 string 获取那个子节点的内容,此时输出的结果就是 None 。
若需要获取多个节点内容,则使用 strings 属性。

for content in soup.strings:
    print(content)

在这里插入图片描述
这时我们发现一个问题,就是包含过多的空格或者换行,此时就需要使用 stripped_strings 方法去除多余的空白内容。

for content in soup.stripped_strings:
    print(content)

在这里插入图片描述
(3.2.3)父节点
调用 parent 属性定位父节点,如果需要获取节点的标签名则使用 parent,name 。

p = soup.p
print(p.parent)
print(p.parent.name)

在这里插入图片描述

content = soup.head.title.string
print(content.parent)
print(content.parent.name)

在这里插入图片描述
如果需要获取所有的父节点,则使用 parents 属性循环获取。

content = soup.head.title.string
for parent in content.parents:
    print(parent.name)

在这里插入图片描述
(3.2.4) 兄弟节点
兄弟节点是指和本节点位于同一级的节点,其中,next_sibling 属性是获取该节点的下一个兄弟节点,precious_sibling 则与之相反,取该节点的上一个兄弟节点,如果节点不存在,则返回 None。

print(soup.p.next_sibling)
print(soup.p.precious_sinling)

在这里插入图片描述
值得注意的是,实际文档中 Tag 的 next_sibling 和 previous_sibling 属性通常都是字符串或者空白,因为空白或者韩航也可以被视作一个节点,所以可到的结果可能是空白或换行。

(3.2.5) 前后节点
调用属性 next_element 可以获取下一个节点,调用属性 precious_element 可以获取上一个节点。

print(soup.p.next_element)
print(soup.p.precious_element)

在这里插入图片描述
(3.3) 搜索文档树
对于搜索文档树,最常用的方法是 find_all() 方法。
如果行从网页中得到所有的 标签,则使用 find_all() 方法的代码如下:

urls = soup.find_all('a')
for url in urls:
    print(url)

在这里插入图片描述
同样,该函数支持传入正则表达式作为参数,BeautifulSoup 会通过正则表达式的 match() 来匹配内容。
下面代码示例是找出所有以 b 开头的标签:

import re
 
for tag in soup.find_all(re.compile("^b")):
    print(tag.name)

在这里插入图片描述
同样,如果想过去标签 a 和标签 b 的值,则可以使用下面的函数:

soup.find_all(["a", "b"])

注意:fina_all() 函数是可以接收参数进行指定节点查询的。

soup.find_all(id="link1")

同样,也可以接受多个参数,比如:

soup.find_all("a", class_="poet")   # 得到一个列表

在这里插入图片描述
至此,整个 BeautifulSoup 技术已经讲完啦,希望对大家有所帮助,谢谢。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值