Python爬虫 BeautifulSoup库应用详解

Python爬虫(四)

学习Python爬虫过程中的心得体会以及知识点的整理,方便我自己查找,也希望可以和大家一起交流。

—— BeautifulSoup库应用详解 ——

一.安装BeautifulSoup库

可以直接使用pip安装,如果电脑上没安装pip,可以到以下网址教程中安装。
Linux:安装教程
Windows:安装教程
MAC OS:直接在终端输入代码:sudo easy_install pip

安装好pip后,我们就可以安装BeautifulSoup库了。
直接输入代码:pip install bs4
因为BeautifulSoup是bs4的一个部分。

二.导入BeautifulSoup库

我们首先在Python中导入BeautifulSoup库:

from bs4 import BeautifulSoup

对于新手来说,我们需要知道BeautifulSoup库有什么功能方法,我们可以dir一下:

printdir(BeautifulSoup))

在这里插入图片描述
在这里我们可以看到BeautifulSoup库的各种方法。

import requests
from bs4 import BeautifulSoup

r = requests.get("https://www.baidu.com")
n = r.content
m = BeautifulSoup(n,"html.parser")

BeautifulSoup库最主要的功能就是从网页爬取我们需要的数据。BeautifulSoup将 html 解析为对象进行处理,全部页面转变为字典或者数组,相对于正则表达式的方式,可以大大简化处理过程。BeautifulSoup将htmll对象转成对象的过程

三.requests库的方法
import requests
from bs4 import BeautifulSoup

r = requests.get("https://www.baidu.com")
n = r.content
m = BeautifulSoup(n,"html.parser")
print(m.prettify())
print(m.head.title)
print(m.p)
for i in m.find_all("p"):
    print(i)
    print(type(i))
st = m.find_all("p")[0]
str(st)
print (st)
print (type(st))
  1. (参数)html.parser:避免因BeautifulSoup库和Python之间的版本不一致而引起的error报警。
  2. prettify:输出格式有缩进。
    当没有缩进的时候:
    在这里插入图片描述
    当有缩进的时候:
    在这里插入图片描述
  3. title:获取源代码中的title标签内容。可以在前面规定位置,如想要获取在head位置的title:
print(m.head.title)
  • title.name:获取titile标签名。
  • title.string:获取title内的string类型字符。
  • title.parent.string:获取titile父标签名。
  1. p:获取源代码中的p标签内容。当不唯一的时候,返回第一个。
    • p.name:获取p标签名。
    • p.string:获取p内的string类型字符。
    • p.parent.string:获取p父标签名。
  2. find_all():获取源代码中所有的某一规定标签内容。例如下面的代码,就是查找所有的p标签:
  for i in m.find_all("p"):
    print(i)

当然,也可以进行多关键词查找,例如:find_all(“p”,“a”,“title”)。也可以发现,这里的i类似于同一个列表的类型,但是其实并非是列表,不过可以按照列表来理解,比如我们要找源代码中第二个p标签:

print (m.find_all("p")[2])

那么,find_all这里究竟是什么类型呢,这里我们可以查一下i的类型:
在这里插入图片描述
我们可以看到,类型不是string,而是对象。如果我们想改成改为string,直接str()转换就可以了:
在这里插入图片描述

  1. 查找参数:以上方法都是只能在标签处查找,可如果要查找下面源代码中的参数href:
<a href="http://ir.baidu.com">About Baidu</a>

需要以下代码以及方法:

  for i in m.find_all("a"):
    print(i)["href"]

现在查找到a标签,然后再所有a标签中查找“href”参数,如果只查找其中某个,只需要找到特殊的标志,如id值、class值(注意:class在查找的时候是“class_”):

  s=m.find_all(id="link2",class_="sister")[0].["href"]
  print(s)
  1. 正则表达式:BeautifulSoup库也支持正则表达式:
import requests
from bs4 import BeautifulSoup
import re

r = requests.get("https://www.baidu.com")
n = r.content
m = BeautifulSoup(n,"html.parser")
for tag in m.find_all(re.compile("^p")):
	print(tag.name)

结果如下:
BeautifulSoup库
——————完整代码请点击链接查看。
——————更多方法详细前往官方中文文档查看。

  • 1
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值