BeautifulSoup库的使用
1 解析库
解析器 | 使用方法 | 优势 | 劣势 |
---|---|---|---|
Python标准库 | BeautifulSoup(markup, "html.parser") | Python的内置标准库、执行速度适中 、文档容错能力强 | Python 2.7.3 or 3.2.2)前的版本中文容错能力差 |
lxml HTML 解析器 | BeautifulSoup(markup, "lxml") | 速度快、文档容错能力强 | 需要安装C语言库 |
lxml XML 解析器 | BeautifulSoup(markup, "xml") | 速度快、唯一支持XML的解析器 | 需要安装C语言库 |
html5lib | BeautifulSoup(markup, "html5lib") | 最好的容错性、以浏览器的方式解析文档、生成HTML5格式的文档 | 速度慢、不依赖外部扩展 |
2 标签选择器
2.1 获取元素
from bs4 import BeautifulSoup
html = """
<html>
<head>
<title>The Dormouse's story</title>
</head>
<body><p class="story" name = "liming">...
"""
soup = BeautifulSoup(html, 'lxml')
print(soup.title) # <title>The Dormouse's story</title>
print(soup.head) # <head><title>The Dormouse's story</title></head>
有多个并列标签时,返回第一个;有多个嵌套标签时,返回最外的一个。
print(soup.prettify()) #返回补全标签后的html
2.2 获取名称
print(soup.p.name) # p
print(soup.title.name) # title
2.3 获取属性
print(soup.p.attrs['name']) # liming
print(soup.p['name']) # liming
2.4 获取内容
print(soup.title.string) # The Dormouse's story
2.5 嵌套选择
print(soup.html.head.title.string) # The Dormouse's story
2.6 子/后代节点
html = """
<html>
<head>
<title>The Dormouse's story</title>
</head>
<body>
<p class="story">
Once upon a time
<a>
<span>Elsie</span>
</a>
<a>Lacie</a>
and
<a>Tillie</a>
the bottom of a well.
</p>
<p class="story">...</p>
"""
from bs4 import BeautifulSoup
soup = BeautifulSoup(html, 'lxml')
(1)子节点(2种)
print(type(soup.p.contents))
print(soup.p.contents)
输出:
<class 'list'>
['\n Once upon a time\n ', <a>
<span>Elsie</span>
</a>, '\n', <a>Lacie</a>, ' \n and\n ', <a>Tillie</a>, '\n the bottom of a well.\n ']
print(soup.p.children)
print(list(enumerate(soup.p.children)))
输出:
<list_iterator object at 0x0000020BC17BEBA8>
[(0, '\n Once upon a time\n '), (1, <a>
<span>Elsie</span>
</a>), (2, '\n'), (3, <a>Lacie</a>), (4, ' \n and\n '), (5, <a>Tillie</a>), (6, '\n the bottom of a well.\n ')]
(2)后代节点
print(soup.p.descendants)
for i, child in enumerate(soup.p.descendants):
print(i, child)
输出:
<generator object descendants at 0x000001B746B0ADB0>
0
Once upon a time
1 <a>
<span>Elsie</span>
</a>
2
3 <span>Elsie</span>
4 Elsie
5
6
7 <a>Lacie</a>
8 Lacie
9
and
10 <a>Tillie</a>
11 Tillie
12
the bottom of a well.
2.7 兄弟节点
print(list(enumerate(soup.a.previous_siblings))) # [(0, '\n Once upon a time\n ')]
print(list(enumerate(soup.a.next_siblings))) # [(0, '\n'), (1, <a>Lacie</a>), (2, ' \n and\n '), (3, <a>Tillie</a>), (4, '\n the bottom of a well.\n ')]
2.8 父/祖先节点
html = '<html><head><title>The Dormouses story'
from bs4 import BeautifulSoup
soup = BeautifulSoup(html, 'lxml')
print(soup.title.parent) # <head><title>The Dormouses story</title></head>
print(list(enumerate(soup.title.parents)))
# [(0, <head><title>The Dormouses story</title></head>),
# (1, <html><head><title>The Dormouses story</title></head></html>),
# (2, <html><head><title>The Dormouses story</title></head></html>)]
3 标准选择器
方法 | 描述 | 方法 | 描述 |
---|---|---|---|
find() | 返回第一个元素 | find_all() | 返回所有元素 |
find_parents() | 返回所有祖先节点 | find_parent() | 返回直接父节点。 |
find_next_siblings() | 返回后面所有兄弟节点 | find_next_sibling() | 返回后面第一个兄弟节点 |
find_previous_siblings() | 返回前面所有兄弟节点 | find_previous_sibling() | 返回前面第一个兄弟节点。 |
find_all_next() | 返回节点后所有符合条件的节点 | find_next() | 返回第一个符合条件的节点 |
find_all_previous() | 返回节点后所有符合条件的节点 | find_previous() | 返回第一个符合条件的节点 |
以find_all为例获取标签
find_all ( name , attrs , recursive , text , **kwargs ),可根据标签名、属性、内容查找文档。
html='''
<div class="panel-body">
<ul class="list" id="1"><li>Foo</li><li>Map</li></ul>
<ul name="Mike"><li>Bar</li></ul>
</div>'''
from bs4 import BeautifulSoup
soup = BeautifulSoup(html, 'lxml')
(1)根据name
print(soup.find_all('ul')) # [<ul class="list" id="1"><li>Foo</li><li>Map</li></ul>, <ul name="Mike"><li>Bar</li></ul>]
for ul in soup.find_all('ul'):
print(ul.find_all('li'))
# [<li>Foo</li>, <li>Map</li>]
# [<li>Bar</li>]
(2)根据attrs
print(soup.find_all(attrs={'id': '1'})) # [<ul class="list" id="1"><li>Foo</li><li>Map</li></ul>]
(3)获取text
print(soup.find_all(text='Foo')) # ['Foo']
4 CSS选择器
通过select()直接传入CSS选择器即可完成选择
html='''
<div class="1">
<div id="2">
<li name="Mike">Hello</li>
<li>Goodbye</li>
</div>
</div>
'''
from bs4 import BeautifulSoup
soup = BeautifulSoup(html, 'lxml')
4.1 获取标签
print(type(soup.select('.1 #2 li'))) # <class 'list'>
# 有空格隔开, .代表class, #代表id ,select获取所有元素
print(soup.select('.1 #2 li')) # [<li name="Mike">Hello</li>, <li>Goodbye</li>]
print(soup.select('li')[0]) # <li name="Mike">Hello</li>
print(soup.select('li')[1]) # <li>Goodbye</li>
4.2 获取属性
print(soup.select('li')[0].attrs['name']) # Mike
print(soup.select('li')[0]['name']) # Mike
4.3 获取内容
print(soup.select('li')[0].get_text()) # Hello
总结
- 推荐使用lxml解析库,必要时使用html.parser
- 标签选择筛选功能弱但是速度快
- 建议使用find()、find_all() 查询匹配单个结果或者多个结果
- 如果对CSS选择器熟悉建议使用select()
- 记住常用的获取属性和文本值的方法