Python爬虫——解析_bs4的基本使用

1. 基本介绍

1. BeautifulSoup简称:

bs4

2. 什么是BeautifulSoup?

BeautifulSoup,和lxml一样,是一个html的解释器,主要功能也是解析和提取数据

** 3. 优缺点:**

缺点:效率没有lxml的效率高
优点:接口设计人性化,使用方便

2.安装及创建

  1. 安装
pip install bs4
  1. 导入
from bs4 import BeautifulSoup
  1. 创建对象
  • 服务器响应的文件生成对象
soup = BeautifulSoup(response.read().decode(), 'lxml')
  • 本地文件生成对象
    注意:默认打开文件的编码格式gbk所以需要指定打开编码格式
soup = BeautifulSoup(open('html文件', encoding=''), 'lxml')

HTML文件

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Title</title>
</head>
<body>
    <div>
        <ul>
            <li id="l1">张三</li>
            <li id="l2">李四</li>
            <li>王五</li>
            <a href="" id="" class="a1">bs4的基本使用</a>
            <span>摆烂</span>
        </ul>
    </div>
    <a href="" title="a2">爬虫</a>

    <div id="d1">
        <span>python</span>
    </div>

    <p id="p1" class="p1">python爬虫</p>
</body>
</html>

3. 节点定位

读取html文件

from bs4 import BeautifulSoup

# 解析本地文件
soup = BeautifulSoup(open('files/bs4的基本使用.html', encoding='utf-8'), 'lxml')
  1. 根据标签查找节点
soup.a	# 只能找到第一个a
soup.a.name
soup.a.attrs
# 找到的是第一个符合条件的数据
print(soup.a)
# 获取标签属性和属性值
print(soup.a.attrs)
  1. bs4的三个函数
    (1).find(返回一个对象)
find('a')	只找到第一个a标签
find('a', title='名字')
find('a', class_='名字')
# 返回第一个符合条件的数据
print(soup.find('a'))

# 根据title的值来找到对应的标签对象
print(soup.find('a', title='a2'))

# 根据class的值来找到对应的标签对象   class需要添加下划线_
print(soup.find('a', class_='a1'))

(2).find_all(返回一个列表)

find_all('a')	查找到所有的a
find_all(['a', 'span'])		返回所有的a和span
find_all('a', 'limit=2')	只找前两个a
# 返回的是一个列表,并且返回了所有的a标签
print(soup.find_all('a'))

# 如果想要获取的是多个标签的数据,那么需要在find_all的参数中添加列表数据[]
print(soup.find_all(['a', 'span']))

# 查找前几个数据   limit
print(soup.find_all('li', limit=2))

(3).select(根据选择器得到节点对象)【推荐,但是一般会结合find和find_all使用】

  1. select方法返回的是一个列表,并且会返回多个数据
element
	eg:p
# select方法返回的是一个列表,并且会返回多个数据
print(soup.select('a'))
  1. 可以通过.代表class 这种操作叫做类选择器
.class
	eg:.firstname
print(soup.select('.a1'))
  1. 通过#代表id
#id
	eg:#firstname
print(soup.select('#l1'))
  1. 属性选择器——通过属性来寻找对应的标签
[attribute]
	eg:li = soup.select('li[class]')
[attribute]
	eg:li = soup.select('li[class=""]')
# 查找到li标签中有id的标签
print(soup.select('li[id]'))
# 查找li标签中id为l2的标签
print(soup.select('li[id="l2"]'))
  1. 层级选择器
element
	div p
element
	div > p
element
	div, p
			eg:soup = soup.select('a, span')
# 后代选择器
# 找到div下面的li
print(soup.select('div li'))

# 子代选择器
# 某一个标签下面的第一级子标签
print(soup.select('div > ul > li'))

# 扎到a标签和li标签的所有对象
print(soup.select('a, li'))

4. 节点信息

  1. 获取节点内容:适用于标签中嵌套的结构
    注意:
    如果标签对象中,只有内容,那么string和get_text()都可以使用
    如果标签对象中,除了内容还有标签,那么string就获取不到数据,而get_text()是可以获取到数据的
    一般情况下,推荐使用get_text()
obj.string
obj.get_text()【推荐】
obj = soup.select('#d1')[0]

print(obj.string)
print(obj.get_text())
  1. 节点的属性
tag.name 获取标签名
	eg:tag = find('li')
	print(tag.name)
tag.attrs将属性值作为一个字典返回
obj = soup.select('#p1')[0]

# name是标签的名字
print(obj.name)
# 将属性作为一个字典返回
print(obj.attrs)
  1. 获取节点属性
obj.attrs.get('title')
obj.get('title')
obj['title']
obj = soup.select('#p1')[0]

print(obj.attrs.get('class'))
print(obj.get('class'))
print(obj['class'])
以下是一个简单的 Python 爬虫实现,用于从北京租房信息网站上爬取租房信息并将其导入到 Excel 文件中。 首先,我们需要安装以下 Python 库: - requests:用于发送 HTTP 请求和获取网页内容。 - Beautiful Soup:用于解析 HTML 和 XML 网页内容。 - openpyxl:用于操作 Excel 文件。 可以使用 pip 命令进行安装: ``` pip install requests beautifulsoup4 openpyxl ``` 接下来,我们需要编写 Python 代码: ```python import requests from bs4 import BeautifulSoup from openpyxl import Workbook # 发送 HTTP 请求并获取网页内容 url = 'https://bj.zu.anjuke.com/fangyuan/p1/' response = requests.get(url) html = response.text # 使用 Beautiful Soup 解析网页内容 soup = BeautifulSoup(html, 'html.parser') houses = soup.select('.zu-itemmod') # 创建 Excel 文件并添加表头 wb = Workbook() ws = wb.active ws.append(['标题', '链接', '小区', '面积', '租金']) # 遍历租房信息并将其添加到 Excel 文件中 for house in houses: title = house.select('.zu-info h3 a')[0].text.strip() link = house.select('.zu-info h3 a')[0]['href'] community = house.select('.details-item')[0].text.strip() area = house.select('.details-item')[1].text.strip() price = house.select('.zu-side strong')[0].text.strip() ws.append([title, link, community, area, price]) # 保存 Excel 文件 wb.save('beijing_rent.xlsx') ``` 该爬虫程序将会从北京租房信息网站的第一页开始爬取租房信息,包括标题、链接、小区、面积和租金,并将其添加到 Excel 文件中。你可以根据需要修改代码以实现更多功能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值