Python-BeautifulSoup

是解析、遍历、维护”标签树”的功能库。

可以解析HTML,XML。

安装

pip install beautifulsoup4

解析器

解析器使用方法条件
bs4的HTML解析器BeautifulSoup(mk,’html.parser’)安装bs4库
lxml的HTML解析器BeautifulSoup(mk,’lxml’)pip install lxml
lxml的XML的解析器BeautifulSoup(mk,’xml’)pip install lxml
html5lib的解析器BeautifulSoup(mk,’html5lib’)pip install html5lib

BeautifulSoup对象的组成对象

BeautifulSoup对象

通过以下代码就可以得到一个BeautifulSoup对象。

from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc, 'html.parser')

可以直接通过soup.<tag name>来取得第一个对应的tag。如soup.div

如果要找到多个,使用find_all()方法。

方法
方法说明
get_text()从文档中获取所有文字内容

Tag对象

Tag 对象与XML或HTML原生文档中的tag相同。

标签,最基本的信息组织单元,分别用<>和</>标明开头和结尾。

属性说明
Name标签的名字,<p>…</p>的名字为”p”,格式:<tag>.name
Attributes标签的属性,字典形式,格式:<tag>.attrs
Contents格式:<tag>.contents
NavigableString标签内非属性字符串,<>…<.>中的字符串,格式:<tag>.string
Comment标签内字符串的注释部分,Comment 对象是一个特殊类型的 NavigableString 对象

tag的属性可以被添加,删除或修改。tag的属性操作方法与字典一样。

tag['class'] = 'class1'

NavigableString对象

标签内非属性字符串,<>…<.>中的字符串,格式:<tag>.string

Comment对象

标签内字符串的注释部分,Comment 对象是一个特殊类型的 NavigableString 对象

Beautiful Soup中定义的其它类型都可能会出现在XML的文档中: CData , ProcessingInstruction , Declaration , Doctype .与 Comment 对象类似,这些类都是 NavigableString 的子类,只是添加了一些额外的方法的字符串独享.下面是用CDATA来替代注释的例子:

from bs4 import CData
cdata = CData("A CDATA block")
comment.replace_with(cdata)

print(soup.b.prettify())
# <b>
#  <![CDATA[A CDATA block]]>
# </b>

多值属性

HTML 4定义了一系列可以包含多个值的属性.在HTML5中移除了一些,却增加更多.最常见的多值的属性是 class (一个tag可以有多个CSS的class). 还有一些属性 rel , rev , accept-charset , headers , accesskey . 在Beautiful Soup中多值属性的返回类型是list。

css_soup = BeautifulSoup('<p class="body strikeout"></p>')
css_soup.p['class']
# ["body", "strikeout"]

css_soup = BeautifulSoup('<p class="body"></p>')
css_soup.p['class']
# ["body"]

如果某个属性看起来好像有多个值,但在任何版本的HTML定义中都没有被定义为多值属性,那么Beautiful Soup会将这个属性作为字符串返回。

id_soup = BeautifulSoup('<p id="my id"></p>')
id_soup.p['id']
# 'my id'

将tag转换成字符串时,多值属性会合并为一个值

rel_soup = BeautifulSoup('<p>Back to the <a rel="index">homepage</a></p>')
rel_soup.a['rel']
# ['index']
rel_soup.a['rel'] = ['index', 'contents']
print(rel_soup.p)
# <p>Back to the <a rel="index contents">homepage</a></p>

如果转换的文档是XML格式,那么tag中不包含多值属性

xml_soup = BeautifulSoup('<p class="body strikeout"></p>', 'xml')
xml_soup.p['class']
# u'body strikeout'

标签树的遍历

标签树的下行遍历

属性说明
.contents子节点的列表,将<tag>所有儿子节点存入列表
.children子节点的迭代类型,与.contents类似,用于循环遍历儿子节点
.descendants子孙节点的迭代类型,包含所有子孙节点,用于循环遍历

标签树的上行遍历

属性说明
.parent节点的父亲标签
.parents节点先辈标签的迭代类型,用于循环遍历先辈节点

标签树的平行遍历

平等遍历必需发生在同一个父节下的各节点间。

属性说明
.next_sibling返回按照HTML文本顺序的下一个平行节点标签
.previous_sibling返回按照HTML文本顺序的上一个平行节点标签
.next_siblings迭代类型,返回按照HTML文本顺序的后续所有平行节点标签
.previous_siblings迭代类型,返回按照HTML文本顺序的前续所有平行节点标签

方法

方法说明
<>.prettify()将HTML更友好的显示
<>.find_all()返回一个列表类型,存储查找的结果

扩展方法

方法说明
<>.find()搜索且只返回一个结果,字符串类型,同find_all()参数
<>.find_parent()在先辈节点中返回一个结果,字符串类型,同find_all()参数
<>.find_parents()在先辈节点中搜索,返回列表类型,同find_all()参数
<>.find_next_sibling()在后续平行节点中返回一个结果,字符串类型,,同find_all()参数
<>.find_next_siblings()在后续平行节点中搜索,返回列表类型,同find_all()参数
<>.find_previous_sibling()在前序平行节点中返回一个结果,字符串类型,同find_all()参数
<>.find_previous_siblings()在前序平行节点中搜索,返回列表类型,同find_all()参数

<>.find_all()

语法

<>.find_all(name,attrs,recursive,string,**kwargs)
  • name
    对标签名称的检索字符串
  • attrs
    对标签属性的检索字符串,可标注属性检索
  • recursive
    是否对子孙全部检索,默认为True
  • string
    对<>…</>中字符串区域进行检索的字符串

注意

  • <tag>(…) 等价于 <tag>.find_all(…)
  • soup(…) 等价于 soup.find_all(…)

使用实例

一般使用方法

先创建一个BeautifulSoup对象。

from bs4 import BeautifulSoup
import re
import requests
r = requests.get('http://www.baidu.com')
r.encoding = r.apparent_encoding
t = r.text
soup = BeautifulSoup(t,'html.parser')

查找所有链接。

for link in soup.find_all('a'):
    print(link)
<a class="mnav" href="http://news.baidu.com" name="tj_trnews">新闻</a> <a class="mnav" href="http://www.hao123.com" name="tj_trhao123">hao123</a> <a class="mnav" href="http://map.baidu.com" name="tj_trmap">地图</a> <a class="mnav" href="http://v.baidu.com" name="tj_trvideo">视频</a> <a class="mnav" href="http://tieba.baidu.com" name="tj_trtieba">贴吧</a> <a class="lb" href="http://www.baidu.com/bdorz/login.gif?login&tpl=mn&u=http%3A%2F%2Fwww.baidu.com%2f%3fbdorz_come%3d1" name="tj_login">登录</a> <a class="bri" href="//www.baidu.com/more/" name="tj_briicon" style="display: block;">更多产品</a> <a href="http://home.baidu.com">关于百度</a> <a href="http://ir.baidu.com">About Baidu</a> <a href="http://www.baidu.com/duty/">使用百度前必读</a> <a class="cp-feedback" href="http://jianyi.baidu.com/">意见反馈</a>
传递正则表达式

我们在使用find_all时,直接填写字符串是精确搜索,传递正则表达式时,才可以进行匹配查找。

查找以“a”为开头的标签名的标签。

for tag in soup.find_all(re.compile('^a')):
    print(tag)

Tags: BeautifulSoup

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值