bs4包-urllib包-requests包

bs4包基本用法

和 lxml 一样,Beautiful Soup 也是一个HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 数据。
lxml 只会局部遍历,而Beautiful Soup 是基于HTML DOM的,会载入整个文档,解析整个DOM树,因此时间和内存开销都会大很多,所以性能要低于lxml。
BeautifulSoup 用来解析 HTML 比较简单,API非常人性化,支持CSS选择器、Python标准库中的HTML解析器,也支持 lxml 的 XML解析器。

抓取工具速度和使用难度
正则最快 困难
BeautifulSoup慢 最简单
lxml快 简单
代码实例在这里插入图片描述

Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,所有对象可以归纳为4种:

  • Tag
  • NavigableString
  • BeautifulSoup
  • Comment
  1. Tag
    Tag 通俗点讲就是 HTML 中的一个个标签
    tap
    我们可以利用 soup 加标签名轻松地获取这些标签的内容,这些对象的类型是bs4.element.Tag。但是注意,它查找的是在所有内容中的第一个符合要求的标签。

对于 Tag,它有两个重要的属性,是 name 和 attrs
在这里插入图片描述
2. NavigableString
用来获取标签内部的文字
在这里插入图片描述
3. BeautifulSoup
BeautifulSoup 对象表示的是一个文档的内容。大部分时候,可以把它当作 Tag 对象,是一个特殊的 Tag,我们可以分别获取它的类型,名称,以及属性
在这里插入图片描述
4. Comment

Comment 对象是一个特殊类型的 NavigableString 对象,其输出的内容不包括注释符号
在这里插入图片描述

遍历文档树
  1. 直接子节点:.contents .children 属性

.contents

  • tag 的 .content 属性可以将tag的子节点以列表的方式输出
  • 输出方式为列表,我们可以用列表索引来获取它的某一个元素

.children

  • 它返回的不是一个 list,不过我们可以通过遍历获取所有子节点。
  • 我们打印输出 .children ,可以发现它是一个 list 生成器对象
  1. 所有子孙节点: .descendants 属性
    .contents 和 .children 属性仅包含tag的直接子节点,.descendants 属性可以对所有tag的子孙节点进行递归循环,和 children类似,我们也需要遍历获取其中的内容。
  2. 节点内容: .string 属性
    如果tag只有一个 NavigableString 类型子节点,那么这个tag可以使用 .string 得到子节点。如果一个tag仅有一个子节点,那么这个tag也可以使用 .string 方法,输出结果与当前唯一子节点的 .string 结果相同。
    通俗点说就是:如果一个标签里面没有标签了,那么 .string 就会返回标签里面的内容。如果标签里面只有唯一的一个标签了,那么 .string 也会返回最里面的内容。
搜索文档树

1.find_all(name, attrs, recursive, text, **kwargs)
name参数可以查找所有名字为 name 的tag,字符串对象会被自动忽略掉

  • 传字符
  • 传正则表达式
  • 传列表
    soup.find_all(['a','b'])
    keyword 参数
    soup.find_all(id='link2')
    text 参数
    通过 text 参数可以搜搜文档中的字符串内容,与 name 参数的可选值一样, text 参数接受 字符串 , 正则表达式 , 列表
    soup.find_all(text="Elsie")
CSS选择器
  • 写 CSS 时,标签名不加任何修饰,类名前加.,id名前加#
  • 在这里我们也可以利用类似的方法来筛选元素,用到的方法是 soup.select(),返回类型是 list
  1. 通过标签名查找
    print soup.select('title')
  2. 通过类名查找
    print soup.select('.sister')
  3. 通过 id 名查找
    print soup.select('#link1')
  4. 组合查找
    组合查找即和写 class 文件时,标签名与类名、id名进行的组合原理是一样的,例如查找 p 标签中,id 等于 link1的内容,二者需要用空格分开
    print soup.select('p #link1')
  5. 属性查找
    查找时还可以加入属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,所以中间不能加空格,否则会无法匹配到。
    print soup.select('a[class="sister"]')
  6. 获取内容
    以上的 select 方法返回的结果都是列表形式,可以遍历形式输出,然后用 get_text() 方法来获取它的内容。

urllib包跟requests包设计思想的不同

python中有多种库可以用来处理http请求,比如:urllib包、requests类库。urllib和urllib2是相互独立的模块,python3.0以上把urllib和urllib2合并成一个库了,requests库使用了urllib3。requests库特别简洁和容易理解。

注意: urlencode包所在的位置在python2与3中不同,
区别如下:

  1. 构建参数:在构建请求参数时,第一种需要将请求参数使用urllib库的urlencode方法进行编码预处理,非常麻烦

  2. 请求方法:发送get请求时,第一种使用的urllib库的urlopen方法打开一个url地址,而第二种直接使用requests库的get方法,与http请求方式是对应的,更加直接、易懂

  3. 请求数据:第一种按照url格式去拼接一个url字符串,显然非常麻烦,第二种按顺序将get请求的url和参数写好就可以了

  4. 处理响应:第一种处理消息头部、响应状态码和响应正文时分别使用.info()、.getcode()、.read()方法,第二种使用.headers、.status_code、.text方法,方法名称与功能本身相对应,更方便理解、学习和使用

  5. 连接方式:看一下返回数据的头信息的“connection”,使用urllib库时,“connection”:“close”,说明每次请求结束关掉socket通道,而使用requests库使用了urllib3,多次请求重复使用一个socket,“connection”:“keep-alive”,说明多次请求使用一个连接,消耗更少的资源

  6. 编码方式:requests库的编码方式Accept-Encoding更全

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值