Beautiful Soup 4.4.0文档学习记录

花了点时间阅读了Beautiful Soup的官方文档。说实话,之前看到这些东西就头疼,密密麻麻全是字,真是不想看,不过没办法,东西总是要学习的,哪能说不看就不看呢。然后越看越有意思,因为能学到新东西嘛。

Beautiful Soup是一个可以从HTMLXML文件中提取数据的Python库。Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,所有对象可以归纳为4种: Tag ,NavigableString , BeautifulSoup , Comment。以我现在对Beautiful Soup的认识,我认为它就是一个可以把HTML标签整理,筛选等工作完成的工具,就像官方文档说的一样,“它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式。”

这是文档提供的代码:

html_doc = """

<html>
<head>
<title>The Dormouse's story</title>
</head>
<body>
<p class="title"><b>The Dormouse's story</b></p> 
<p class="story">Once upon a time there were three little sisters; and their names were<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;and they lived at the bottom of a well.</p> <p class="story">...</p>

"""

在这段代码中,一般网页有的标签这里都基本涉及到了。

从文档中找到所有<a>标签的链接

for link in soup.find_all('a'):
    print(link.get('href'))  #get(标签属性)就能获取标签属性对应的内容

    # http://example.com/elsie
    # http://example.com/lacie
    # http://example.com/tillie

从文档中获取所有文字内容:

print(soup.get_text()) 

#soup必须是字符串格式才行

# The Dormouse's story
## The Dormouse's story
## Once upon a time there were three little sisters; and their names were
# Elsie,
# Lacie and# Tillie;
# and they lived at the bottom of a well.
## ...

每个tag都有自己的名字,通过.name来获取:

tag.name
# u'b'

.attrs #用来获取标签属性 :

tag.attrs
# {u'class': u'boldest'}

操作文档树最简单的方法就是告诉它你想获取的tagname.如果想获取 <head> 标签,只要用 soup.head :

soup.head
# <head><title>The Dormouse's story</title></head>

soup.title
# <title>The Dormouse's story</title>

这是个获取tag的小窍门,可以在文档树的tag中多次调用这个方法.下面的代码可以获取<body>标签中的第一个<b>标签:

soup.body.b

# <b>The Dormouse's story</b>

tag.contents 属性可以将tag的子节点以【列表】的方式输出:

head_tag.contents

[<title>The Dormouse's story</title>]

输出的字符串中可能包含了很多空格或空行,使用.stripped_strings可以去除多余空白内容:

for string in soup.stripped_strings:
    print(repr(string))

查找文档中所有的标签:

soup.find_all('b') #查找<b>标签
# [<b>The Dormouse's story</b>]

如果传入列表参数,Beautiful Soup会将与列表中任一元素匹配的内容返回.下面代码找到文档中所有<a>标签和<b>标签:

soup.find_all(["a", "b"])
# [<b>The Dormouse's story</b>,#  <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,#  <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>,#  <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]

find_all( name , attrs , recursive , string , **kwargs )

name 参数可以查找所有名字为 nametag,字符串对象会被自动忽略掉.

简单的用法如下:
soup.find_all("title")
# [<title>The Dormouse's story</title>]

keyword 参数

如果包含一个名字为 id 的参数,Beautiful Soup会搜索每个tag的”id”属性.
(不只是id,其他标签同样适用)
soup.find_all(id='link2')
# [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
如果传入 href 参数,Beautiful Soup会搜索每个tag的”href”属性:
soup.find_all(href=re.compile("elsie"))
# [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>]
使用多个指定名字的参数可以同时过滤tag的多个属性:
soup.find_all(href=re.compile("elsie"), id='link1')# [<a class="sister" href="http://example.com/elsie" id="link1">three</a>]

通过 find_all() 方法的 attrs 参数定义一个字典参数来搜索包含特殊属性的tag:

data_soup.find_all(attrs={"data-foo": "value"}) #标签等于标签的属性

# [<div data-foo="value">foo!</div>]

通过 string 参数可以搜索文档中的字符串内容.

soup.find_all(string=re.compile("Dormouse")) 

[u"The Dormouse's story", u"The Dormouse's story"]

虽然 string 参数用于搜索字符串,还可以与其它参数混合使用来过滤tag. <可以用来过滤标签>

Beautiful Soup会找到 .string 方法与 string 参数值相符的tag.下面代码用来搜索内容里面包含“Elsie”的标签:

soup.find_all("a", string="Elsie")
# [<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>]

find_all()几乎是Beautiful Soup中最常用的搜索方法,所以我们定义了它的简写方法. BeautifulSoup 对象和 tag 对象可以被当作一个方法来使用,这个方法的执行结果与调用这个对象的 find_all() 方法相同,下面两行代码是等价的:

soup.find_all("a")
soup("a")

这两行代码也是等价的:

soup.title.find_all(string=True)
soup.title(string=True)

通过tag标签逐层查找:<根据标签逐层查找>

soup.select("body a")
# [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,#  <a class="sister" href="http://example.com/lacie"  id="link2">Lacie</a>,#  <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]

soup.select("html head title") <先是<html>然后是其下的<head>然后是<head>下的<title>标签,层层向下>
# [<title>The Dormouse's story</title>]

找到某个tag标签下的直接子标签:(可以利用此方法搜索较大标签下的子标签)
soup.select("head > title")  #搜索父标签下的子标签内容
# [<title>The Dormouse's story</title>]

soup.select("p > a") #搜索<p>标签下的<a>标签内容
# [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,#  <a class="sister" href="http://example.com/lacie"  id="link2">Lacie</a>,#  <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]

soup.select("p > a:nth-of-type(2)") #应该是搜索<p>标签下,<a>标签属性数量为3的<a>标签
# [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]

soup.select("p > #link1") #搜索<p>标签下属性值为link1的标签内容
# [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>]

soup.select("body > a")
# []

通过tagid查找:

soup.select("#link1")

# [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>]

soup.select("a#link2")

# [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
同时用多种CSS选择器查询元素:
soup.select("#link1,#link2")

# [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,#  <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
通过是否存在某个属性来查找:
soup.select('a[href]')
# [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,#  <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>,#  <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
通过属性的值来查找:
soup.select('a[href="http://example.com/elsie"]')

返回查找到的元素的第一个

soup.select_one(".sister")
# <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>

get_text()

如果只想得到tag中包含的文本内容,那么可以用 get_text() 方法,这个方法获取到tag中包含的所有文版内容包括子孙tag中的内容,并将结果作为Unicode字符串返回

通过参数指定tag的文本内容的分隔符:

# soup.get_text("|")u'\nI linked to |example.com|\n'

还可以去除获得文本内容的前后空白:

# soup.get_text("|", strip=True)u'I linked to|example.com'

我觉得有用的就这么多了,总结的有些粗糙,不过我觉得如果你用过beautiful soup的话应该是能理解的,其他的一些内容可以看官方文档,很详细很全。

Beautiful Soup 4.4.0官方文档

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值