『python爬虫』08. 数据解析之bs4解析(保姆级图文)


欢迎关注 『python爬虫』 专栏,持续更新中
欢迎关注 『python爬虫』 专栏,持续更新中

1. 安装bs4模块

pip install bs4
pip install-i https://pypi.tuna.tsinghua.edu.cn/simplebs4

如果遇到报错The soupsieve package is not installed. CSS selectors cannot be used
可能还需要安装下面的库
pip install soupsieve

在这里插入图片描述
基本上find()和findall()就够用了

find()

找到第一个满足条件的标签就返回。只会返回第一个元素。
find(标签,属性=值)意思是在⻚⾯中查找xxx标签,并且标签的xxx属性必须是xxx值

学过python面向对象的朋友可能会知道python的保留字中有一个class,如果你没有学过你就理解为是和if 一样的东西。但是html标签中也有class属性,这无疑会带来关键字冲突。可以在class后⾯加个下划线。

page.find("div",class_="honor")

推荐使用第⼆种写法来避免这类问题出现

page.find("div",attrs={"class":"qwer"})

findall()

将所有满足条件的标签都返回。以列表的形式返回很多标签
findall(标签,属性=值)意思是在⻚⾯中查找xxx标签,并且标签的xxx属性必须是xxx值

其他类似find()


2. 爬取信息测试

先获取⻚⾯源代码.并且确定数据就在⻚⾯源代码中。
我们这边测试一下我爬我自己,爬取我博客个人主页中的个人简介。

我的主页
https://blog.csdn.net/u011027547

根据p标签的class="introduction-fold"属性查找,并且可以在找到p标签的基础上进行二次查找。
在这里插入图片描述

import csv

# 1. 拿到页面源代码
# 2. 使用bs4进行解析. 拿到数据
import requests
from bs4 import BeautifulSoup

url = "https://blog.csdn.net/u011027547"
headers = {
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36"
}
resp = requests.get(url,headers=headers)
print(resp)#
f = open("搜索信息.csv", mode="w")
csvwriter = csv.writer(f)

# 解析数据
# 1. 把页面源代码交给BeautifulSoup进行处理, 生成bs对象
page = BeautifulSoup(resp.text, "html.parser")  # 指定html解析器
# 2. 从bs对象中查找数据
# find(标签, 属性=值)
# find_all(标签, 属性=值)
# table = page.find("table", class_="hq_table")  # class是python的关键字,所以我们用class需要改为class_,类似避讳古代皇帝的名
p = page.find("p", attrs={"class": "introduction-fold"})  # 和上一行是一个意思. 此时可以避免class
print(p)#<p class="introduction-fold default" data-v-d1dbb6f8=""><span data-v-d1dbb6f8="">个人简介:</span>MZH19145120,一个计算机在学大学生,在学了在学了,马上学废了。</p>
print(p.text)#得到p标签中关于个人信息的文本-->个人简介:MZH19145120,一个计算机在学大学生,在学了在学了,马上学废了。


message=p.find("span")#在原本p标签中寻找span标签
print(message)#<p class="introduction-fold default" data>
print(message.text)#个人简介:

在这里插入图片描述


总结

大家喜欢的话,给个👍,点个关注!给大家分享更多计算机专业学生的求学之路!

版权声明:

发现你走远了@mzh原创作品,转载必须标注原文链接

Copyright 2023 mzh

Crated:2023-3-1

欢迎关注 『python爬虫』 专栏,持续更新中
欢迎关注 『python爬虫』 专栏,持续更新中
『未完待续』


  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

发现你走远了

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值