CSS 选择器:BeautifulSoup4

和 lxml 一样,Beautiful Soup 也是一个HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 数据。
lxml 只会局部遍历,而Beautiful Soup 是基于HTML DOM的,会载入整个文档,解析整个DOM树,因此时间和内存开销都会大很多,所以性能要低于lxml。
BeautifulSoup 用来解析 HTML 比较简单,API非常人性化,支持 CSS选择器 、Python标准库中的HTML解析器,也支持 lxml 的 XML解析器。
Beautiful Soup 3 目前已经停止开发,推荐现在的项目使用Beautiful Soup 4。使用 pip 安装即可: pip install beautifulsoup4
抓取工具
速度
使用难度
安装难度
正则
最快
困难
无(内置)
BeautifulSoup
最简单
简单
lxml
简单
一般

示例:

首先必须要导入 bs4 库
beautiful soup 里有几个参数,第一个是响应内容,也就是字符串;第二个参数可以指定用那种解析库,我们可以仍然使用beautiful soup 的语法并用lxml库来解析内容,以提升效率。 soup = BeautifulSoup(html,“lxml”)
# beautifulsoup4_test.p;

from bs4 import BeautifulSoup

html = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href=" http://example.com/elsie " class="sister" id="link1"><!-- Elsie --></a>,
<a href=" http://example.com/lacie " class="sister" id="link2">Lacie</a> and
<a href=" http://example.com/tillie " class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""

#创建 Beautiful Soup 对象
soup = BeautifulSoup(html)

#打开本地 HTML 文件的方式来创建对象 #soup = BeautifulSoup(open('index.html'))

#格式化输出 soup 对象的内容
print soup.prettify()

四大对象种类

Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,所有对象可以归纳为4种:
  • Tag  标签,它有两个重要的属性,是 name 和 attrs
  • NavigableString
  • BeautifulSoup
  • Comment

搜索文档树

1.find_all(name, attrs, recursive, text, **kwargs)

1)name 参数
name 参数可以查找所有名字为 name 的tag,字符串对象会被自动忽略掉
A.传字符串
最简单的过滤器是字符串.在搜索方法中传入一个字符串参数,Beautiful Soup会查找与字符串完整匹配的内容,下面的例子用于查找文档中所有的 <b> 标签:
soup.find_all( 'b' )
# [<b>The Dormouse's story</b>]

print soup.find_all( 'a' )
#[<a class="sister" href=" http://example.com/elsie " id="link1"><!-- Elsie --></a>, <a class="sister" href=" http://example.com/lacie " id="link2">Lacie</a>, <a class="sister" href=" http://example.com/tillie " id="link3">Tillie</a>]
B.传正则表达式
如果传入正则表达式作为参数,Beautiful Soup会通过正则表达式的 match() 来匹配内容.下面例子中找出所有以b开头的标签,这表示 <body> <b> 标签都应该被找到
import re
for tag in soup.find_all( re.compile ( "^b" )):
print(tag.name)
# body # b
C.传列表
如果传入列表参数,Beautiful Soup会将与列表中任一元素匹配的内容返回.下面代码找到文档中所有 <a> 标签和 <b> 标签:
soup.find_all([ "a" , "b" ])
# [<b>The Dormouse's story</b>, # <a class="sister" href=" http://example.com/elsie " id="link1">Elsie</a>, # <a class="sister" href=" http://example.com/lacie " id="link2">Lacie</a>, # <a class="sister" href=" http://example.com/tillie " id="link3">Tillie</a>]
2)keyword 参数
soup.find_all(id= 'link2' )
# [<a class="sister" href=" http://example.com/lacie " id="link2">Lacie</a>]
3)text 参数
通过 text 参数可以搜搜文档中的字符串内容,与 name 参数的可选值一样, text 参数接受 字符串 , 正则表达式 , 列表
soup.find_all(text= "Elsie" )
# [u'Elsie']

soup.find_all(text=[ "Tillie" , "Elsie" , "Lacie" ])
# [u'Elsie', u'Lacie', u'Tillie']

soup.find_all(text= re.compile ( "Dormouse" ))
[ u"The Dormouse's story" , u"The Dormouse's story" ]

CSS选择器

这就是另一种与 find_all 方法有异曲同工之妙的查找方法.
  • 写 CSS 时,标签名不加任何修饰,类名前加.,id名前加#
  • 在这里我们也可以利用类似的方法来筛选元素,用到的方法是 soup.select(),返回类型是 list

(1)通过标签名查找

print soup.select( 'title' )
#[<title>The Dormouse's story</title>]

print soup.select( 'a' )
#[<a class="sister" href=" http://example.com/elsie " id="link1"><!-- Elsie --></a>, <a class="sister" href=" http://example.com/lacie " id="link2">Lacie</a>, <a class="sister" href=" http://example.com/tillie " id="link3">Tillie</a>]

print soup.select( 'b' )
#[<b>The Dormouse's story</b>]

(2)通过类名查找

print soup.select( '.sister' )
#[<a class="sister" href=" http://example.com/elsie " id="link1"><!-- Elsie --></a>, <a class="sister" href=" http://example.com/lacie " id="link2">Lacie</a>, <a class="sister" href=" http://example.com/tillie " id="link3">Tillie</a>]

(3)通过 id 名查找

print soup.select( '#link1' )
#[<a class="sister" href=" http://example.com/elsie " id="link1"><!-- Elsie --></a>]

(4)组合查找

组合查找即和写 class 文件时,标签名与类名、id名进行的组合原理是一样的,例如查找 p 标签中,id 等于 link1的内容,二者需要用空格分开
print soup.select( 'p #link1' )
#[<a class="sister" href=" http://example.com/elsie " id="link1"><!-- Elsie --></a>]
直接子标签查找,则使用   >   分隔
print soup.select( "head > title" )
#[<title>The Dormouse's story</title>]

(5)属性查找

查找时还可以加入属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,所以中间不能加空格,否则会无法匹配到。
print soup.select( 'a[class="sister"]' )
#[<a class="sister" href=" http://example.com/elsie " id="link1"><!-- Elsie --></a>, <a class="sister" href=" http://example.com/lacie " id="link2">Lacie</a>, <a class="sister" href=" http://example.com/tillie " id="link3">Tillie</a>]

print soup.select( 'a[href=" http://example.com/elsie "]' )
#[<a class="sister" href=" http://example.com/elsie " id="link1"><!-- Elsie --></a>]
同样,属性仍然可以与上述查找方式组合,不在同一节点的空格隔开,同一节点的不加空格
print soup.select( 'p a[href=" http://example.com/elsie "]' )
#[<a class="sister" href=" http://example.com/elsie " id="link1"><!-- Elsie --></a>]

(6) 获取内容

以上的 select 方法返回的结果都是列表形式,可以遍历形式输出,然后用 get_text() 方法来获取它的内容。
soup = BeautifulSoup(html, 'lxml' )
print type(soup.select( 'title' ))
print soup.select( 'title' )[ 0 ].get_text()

for title in soup.select( 'title' ):
print title.get_text()



案例:使用BeautifuSoup4的爬虫

我们以腾讯社招页面来做演示: http://hr.tencent.com/position.php?&start=10#a
使用BeautifuSoup4解析器,将招聘网页上的职位名称、职位类别、招聘人数、工作地点、发布时间,以及每个职位详情的点击链接存储出来。
# bs4_tencent.py


from bs4 import BeautifulSoup
import urllib2
import urllib
import json # 使用了json格式存储

def tencent () :
request = urllib2.Request(url + 'position.php?&start=10#a' )
response =urllib2.urlopen(request)
resHtml = response.read()

output =open( 'tencent.json' , 'w' )

html = BeautifulSoup(resHtml, 'lxml' )

# 创建CSS选择器
result = html.select( 'tr[class="even"]' )
result2 = html.select( 'tr[class="odd"]' )
result += result2

items = []
for site in result:
item = {}

name = site.select( 'td a' )[ 0 ].get_text()
detailLink = site.select( 'td a' )[ 0 ].attrs[ 'href' ]
catalog = site.select( 'td' )[ 1 ].get_text()
recruitNumber = site.select( 'td' )[ 2 ].get_text()
workLocation = site.select( 'td' )[ 3 ].get_text()
publishTime = site.select( 'td' )[ 4 ].get_text()

item[ 'name' ] = name
item[ 'detailLink' ] = url + detailLink
item[ 'catalog' ] = catalog
item[ 'recruitNumber' ] = recruitNumber
item[ 'publishTime' ] = publishTime

items.append(item)

# 禁用ascii编码,按utf-8编码
line = json.dumps(items,ensure_ascii= False )

output.write(line.encode( 'utf-8' ))
output.close()

if __name__ == "__main__" :
tencent()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值