python中BeautifulSoup模块的基础用法

前言

之前有节实验课研究了爬虫,我深刻地感觉到了xpath就不适合玩爬虫(个人见解),于是我开始试着重新复习beautifulsoup库了

beautifulsoup库的使用

安装和引用

安装直接pip安装就好了

pip install bs4

引用

from bs4 import BeautifulSoup

创建对象

soup = BeautifulSoup(res_text,"html.parser",from_encoding="utf-8")

html.parser 是一个算是用于解释html文档的东西

使用

首先我需要一个html文档,一般来说是用了requests模块以后得来的content

然后使用的语法

查找标签
test1 = soup.findAll('a') 
#这个是指我要这个文档里面所有的a标签,包括了<a>一起,有一个像是list的返回,类型叫做ResultSet
test2 = soup.findAll('a',class_='xxx')
#在上面的基础上,我要的是所有class是'xxx'的标签
test3 = soup.findAll('a',class_='xxx',text='story')
#标签里面的文本筛选

我们还可以和著名的re库,也就是正则表达式一起用

test4 = soup.findAll('a',class_='xxx',text=re.compile('.*?story.*?'))
查找标签里的内容
for item in test1:
	print(item.get_text())
#get_text()可以把标签里面的内容全部弄出来,不管你是不是普通的text,还是有<em>标签,都可以
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值