python 爬虫库 beautifulsoup4_Python网络爬虫——BeautifulSoup4库的使用

使用requests库获取html页面并将其转换成字符串之后,需要进一步解析html页面格式,提取有用信息。

BeautifulSoup4库,也被成为bs4库(后皆采用简写)用于解析和处理html和xml。

1.调用

bs4库中最主要的便是bs类了,每个实例化的对象都相当于一个html页面

需要采用from-import导入bs类,同时通过BeautifulSoup()创建一个bs对象

代码如下:

importrequestsfrom bs4 importBeautifulSoup

r=requests.get("https://www.baidu.com/")

r.encoding="utf-8"soup=BeautifulSoup(r.text)print(type(soup))

运行结果:

1785234-20191208103215294-1028443893.png

2.常用属性

创建的BeautifulSoup对象是一个树形结构,它包含html页面中的每一个Tag(标签)元素,可以通过.的形式获得

常见的属性如下:

head:

html页面

内容

title:

html页面标题,在

之中,由标记

body:

html页面

内容

p:

html页面第一个

内容

strings:

html页面所有呈现在web上的字符串,即标签的内容

stripped_string:

html页面所有呈现在web上的非空字符串

1785234-20191208104735593-1169160713.png

接下来尝试爬取百度的标语“百度一下,你就知道”

首先我们通过requests来建立请求,可以通过查看源代码找到对应部分

如下所示:

1785234-20191208110133727-1814879945.png

所以直接通过调用

标签即可

代码如下:

importrequestsfrom bs4 importBeautifulSoup

r=requests.get("https://www.baidu.com/")

r.encoding="utf-8"soup=BeautifulSoup(r.text)

title=soup.titleprint(title)

结果如图所示:

1785234-20191208110323929-2133944352.png

3.标签常用属性

每一个标签在bs4中也是一个对象,被称为tag对象,以糯米为例,常见结构如下:

糯米

其中尖括号(<>)中标签的名字为 name,其他项为attrs,尖括号之间的内容为string

所以常见的标签属性分为4种

name:

字符串、标签的名字

attrs:

字典、包含了原来页面tag的所有属性,比如href

contrnts:

列表、tag下所有子tag的内容

string:

字符串、tag所包含的文本,网页中的真实文字

由于html可以在标签中嵌套其他的标签,所以string返回遵循以下原则

①如果标签内没有其他标签,string属性返回其中的内容

②如果标签内部还有标签,但只有一个标签,string返回最里面的标签内容

③如果内部超过1层嵌套标签,则返回为none

依然以百度为例,我们需要找到第一个标签的string代码应当如下:

importrequestsfrom bs4 importBeautifulSoup

r=requests.get("https://www.baidu.com/")

r.encoding="utf-8"soup=BeautifulSoup(r.text)print(soup.a.string)

结果如图所示:

1785234-20191208112814236-769519454.png

4.调用find()与find_all()

html中,同一个特标签会有很多内容,比如百度首页一共有13处,但值返回第一处

所以这时候需要通过find与find_all来寻找,这两个方法都会遍历html文档按照条件返回内容

使用方法如下:

BeautifulSoup.find_all(name,attrs,recursive,string,limit)

name:以标签名字进行搜索,名字用字符串类型表示

attrs:按照标签的属性来搜索,需要列出属性的名字和值,用json方法表示

recursive:设置查找层次,只查找当前标签的西一层时使用recursiv=false

string:按照关键字查找string属性内容,采用string=开始

limit:返回结果个数,默认全部

至于find()使用方法如find_all()相同,

BeautifulSoup.find_all(name,attrs,recursive,string)

区别在于find()只搜索第一个结果,find_all()返回所有结果。

我们尝试来通过find_all()来获取所有含有“百度”这一关键词的标签

首先需要调用re库,re是python的标准库可以采用compile()对字符串的检索

所以代码如下:

importrequestsimportrefrom bs4 importBeautifulSoup

r=requests.get("https://www.baidu.com/")

r.encoding="utf-8"soup=BeautifulSoup(r.text)

w=soup.find_all(string=re.compile("百度"))print(w)

结果如下:

1785234-20191208115633753-1691839071.png

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值