Python爬虫实战学习资料全解

本文还有配套的精品资源,点击获取 menu-r.4af5f7ec.gif

简介:本学习资料集合了Python网络爬虫从基础到进阶的全方位技术,深入介绍了请求库Requests、解析库BeautifulSoup、正则表达式Re以及Scrapy框架的使用。其中,详细讲解了网络请求发送、数据提取、正则表达式匹配等技术要点,并通过多个实例教程引导学习者实现具体的爬虫项目,如中国大学排名和股票数据爬取。此外,资料还包括了网络爬虫道德与法律的知识,确保学习者能够合法合规地使用所学技能。

1. Python网络爬虫基础介绍

随着大数据时代的到来,网络爬虫技术在数据获取与信息采集方面扮演了重要角色。Python网络爬虫利用Python语言的简洁和强大的库支持,成为众多开发者和数据分析师的首选工具。本章将从网络爬虫的基本概念出发,逐渐深入探讨其工作原理和应用场景,为读者提供一个清晰的爬虫知识框架。

网络爬虫的定义

网络爬虫,又称为网络蜘蛛或网络机器人,是一种自动化获取网页内容的程序。它按照一定的规则,自动地访问互联网,并抓取所需的数据。

网络爬虫的工作原理

爬虫的工作流程通常包括:发送HTTP请求、获取网页内容、解析网页、提取有用数据、存储数据等步骤。它通过模拟浏览器行为,对网页进行解析,抓取和分析所需信息。

应用场景

网络爬虫广泛应用于搜索引擎、数据分析、市场监控、社交媒体监控等领域。通过爬虫,可以自动化收集并处理大量数据,为决策提供有力支持。

2. Requests库入门与实战应用

2.1 Requests库的基本使用

2.1.1 安装Requests库

在Python环境中,Requests库作为一个第三方库,提供了一个简单的方式来发送HTTP请求。安装Requests库非常简单,可以使用pip包管理器直接安装:

pip install requests

为了验证是否安装成功,可以通过在Python解释器中导入库并检查版本来测试:

import requests
print(requests.__version__)

如果控制台打印出了Requests的版本信息,说明安装成功。

2.1.2 Requests库的简单应用

使用Requests库进行基本的HTTP请求非常直接。以下是获取一个网页内容的示例:

import requests

url = '***'
response = requests.get(url)

# 打印返回内容
print(response.text)

在上述代码中,我们首先导入了requests库,然后指定了要请求的URL地址。使用 requests.get() 函数发送一个GET请求,并将返回的响应对象存储在变量 response 中。最后,我们打印出响应的文本内容。

Requests库自动处理了HTTP连接的建立和会话管理,我们可以直接获取到返回的响应内容。除了GET请求外,Requests还支持POST、PUT、DELETE、HEAD等多种HTTP请求方式,具体可以参考官方文档。

2.2 Requests库的高级用法

2.2.1 设置请求头和代理

在某些情况下,我们可能需要设置特定的请求头来模拟浏览器行为或绕过某些服务端的限制。此外,使用代理可以隐藏真实IP地址,提高爬虫的存活率。以下是如何在Requests中设置请求头和代理的例子:

import requests

headers = {'User-Agent': 'Mozilla/5.0'}
proxies = {
    'http': '***',
    'https': '***',
}

response = requests.get('***', headers=headers, proxies=proxies)

print(response.status_code)

在上述代码中,我们创建了一个包含用户代理(User-Agent)的 headers 字典,并定义了一个 proxies 字典来设置HTTP和HTTPS的代理服务器。将这些参数传递给 requests.get() 方法,从而在请求中使用它们。

2.2.2 会话保持与Cookie处理

在许多情况下,需要维持用户会话或跨请求保持某些状态(如登录状态)。Requests库通过会话对象来支持这种功能:

import requests

# 创建会话对象
session = requests.Session()

# 发送POST请求登录
session.post('***', data={'username': 'user', 'password': 'pass'})

# 使用同一个会话发送其他请求,Cookie将会自动处理
response = session.get('***')

print(response.cookies)

在这个例子中,我们首先创建了一个 requests.Session 对象,该对象会自动处理Cookies。接着,我们使用这个会话对象来发送登录请求。一旦登录成功,后续使用同一个会话对象发送的请求都会自动包含登录时的Cookies,因此无需再次登录。

2.2.3 异常处理和请求调试

网络请求可能会因为各种原因失败,例如网络中断、超时或服务器错误。因此,异常处理是网络编程中必不可少的一部分。在Requests库中,可以通过try-except语句捕获异常:

import requests

try:
    response = requests.get('***', timeout=3)
except requests.exceptions.Timeout:
    print('The request timed out')
except requests.exceptions.RequestException as e:
    print('There was an ambiguous exception that occurred while handling your request:', e)

在上述代码中,我们通过 timeout 参数设置请求的超时时间。如果请求未能在指定时间内完成,将抛出一个超时异常。我们还捕获了 requests.exceptions.RequestException ,这是一个基础异常,可以捕获Requests库抛出的所有异常。

通过这些高级用法的介绍,我们已经展示了Requests库的一些实用技巧。在实际开发中,灵活地应用这些技巧能够帮助我们更好地进行网络请求。接下来,我们将学习如何使用BeautifulSoup库来解析和提取这些请求获取的数据。

3. BeautifulSoup库数据提取技术

3.1 BeautifulSoup库概述

3.1.1 安装BeautifulSoup库

在Python中处理HTML或XML文档时,BeautifulSoup库提供了一个简单的方法来导航、搜索以及修改解析树。它是一个非常流行的库,可以将复杂的HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,所有对象可以归纳为四种类型:Tag、NavigableString、BeautifulSoup、Comment。

安装BeautifulSoup库通常很简单,可以直接使用pip命令安装:

pip install beautifulsoup4

在安装过程中,可能还需要安装一个解析器库,如 lxml html.parser ,解析器用于将文档转换成BeautifulSoup对象。推荐使用 lxml 因为它速度快且容错能力强。

安装 lxml 的命令如下:

pip install lxml

安装完成后,可以编写简单的Python脚本来验证安装是否成功:

from bs4 import BeautifulSoup

html_doc = """
<html><head><title>The Dormouse's story</title></head>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="***" class="sister" id="link1">Elsie</a>,
<a href="***" class="sister" id="link2">Lacie</a> and
<a href="***" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>

soup = BeautifulSoup(html_doc, 'lxml')
print(soup.prettify())

3.1.2 BeautifulSoup的基本使用方法

BeautifulSoup对象可以看作是一个容器,里面包含了多个Tag元素。基本使用方法主要涉及到标签的查找、遍历和选择。

首先,导入BeautifulSoup类,然后创建一个BeautifulSoup对象,可以指定使用的解析器:

soup = BeautifulSoup(html_doc, 'lxml')

查找单个标签使用 find() 方法:

link = soup.find('a')
print(link.text)  # 输出标签内的文本

查找多个标签使用 find_all() 方法:

links = soup.find_all('a')
for link in links:
    print(link.get('href'))  # 输出所有<a>标签的href属性

遍历文档树:

for tag in soup.find_all(True):
    print(tag.name)

以上代码演示了如何查找特定的标签,如何查找多个标签,以及如何遍历文档树。BeautifulSoup还支持许多其他功能,如修改标签属性、内容、使用CSS选择器等。

3.2 BeautifulSoup的数据解析技巧

3.2.1 解析HTML和XML文档

BeautifulSoup可以解析HTML和XML文档,处理方法基本一致。首先需要准备文档源码,然后用BeautifulSoup解析这个源码。

from bs4 import BeautifulSoup

# HTML文档示例
html_doc = """
<html><head><title>Test Page</title></head>
<body>
    <p class="title">A <b>bold</b> word</p>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="***" class="sister" id="link1">Elsie</a>,
    <a href="***" class="sister" id="link2">Lacie</a> and
    <a href="***" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
</body>
</html>

soup = BeautifulSoup(html_doc, 'lxml')

解析之后,可以使用不同的方法来查找和提取想要的数据:

# 查找特定标签
title = soup.find('title')
print(title.text)

# 查找有特定属性的标签
link = soup.find('a', {'class': 'sister'})
print(link.text)

3.2.2 多种解析器的对比和选择

BeautifulSoup支持多种解析器,包括 html.parser lxml xml html5lib 。不同的解析器有其各自的优缺点,选择合适的解析器是提高解析效率和准确性的关键。

| 解析器类型 | 说明 | | --- | --- | | html.parser | Python标准库中的HTML解析器,使用方便,无需安装额外包,但速度较慢。适用于简单的应用。 | | lxml | 第三方库,速度非常快,容错能力强,是使用最广泛的解析器之一。 | | xml | 专门用于XML文档解析, html.parser lxml 也支持XML,但 xml 解析器更为严格。 | | html5lib | 一个Python库,它使用浏览器相同的解析方式(基于WHATWG的HTML5标准)。解析速度较慢,但解析结果与现代浏览器一致。 |

选择解析器时可以根据实际需求和文档结构做出选择。例如,对于简单的HTML文档和需要高度容错的场景, lxml 是一个很好的选择。

3.2.3 高级数据提取技术

在提取数据时,往往会使用到更复杂的匹配模式,比如CSS选择器。BeautifulSoup通过与 lxml.cssselect lxml.html 的整合,支持CSS选择器的使用。

# 使用CSS选择器查找元素
soup.select(".title")

此外,还可以利用lambda表达式作为过滤条件,提取符合特定条件的元素:

# 使用lambda表达式过滤元素
articles = soup.find_all(lambda tag: tag.name == 'a')
for article in articles:
    print(article.text)

在处理大型文档时,还可以使用 prettify() 方法来美化输出格式:

# 美化输出文档
print(soup.prettify())

在进行数据提取时,还应当考虑到性能和效率问题。例如,当数据量非常大时,可能需要考虑使用 generators 来逐条处理数据,而不是一次性加载整个文档到内存。

# 使用generators逐条处理数据
for item in soup.find_all('li'):
    print(item.get_text())

BeautifulSoup是一个功能强大的库,它提供了一系列方法和工具来帮助开发者高效地处理和提取网页数据。通过掌握其核心方法和高级技巧,可以在网络爬虫项目中大幅提升开发效率和数据处理能力。

4. 正则表达式Re库匹配技巧

4.1 正则表达式的基础知识

4.1.1 正则表达式的组成和语法规则

正则表达式(Regular Expression),在文本处理中,是一种用于匹配字符串中字符组合的模式。它是一种小型的、高度专业化的编程语言,在Python中可以通过内置的 re 模块进行使用。

正则表达式的组成通常包括以下元素:

  • 普通字符 :字母、数字、汉字等。在正则表达式中,它们通常表示匹配自己。
  • 特殊字符 :例如 ? , + , * , {} , () , [] , ^ , $ 等。这些字符在正则表达式中具有特殊的含义。

  • 元字符 :用于表示某个范围内的字符或者某类特定的字符。如 \d 表示数字, \w 表示字母或数字等。

  • 量词 :用来表示前面的字符或者表达式可以出现的次数,如 * 表示0次或多次, + 表示1次或多次, ? 表示0次或1次, {n} 表示恰好n次, {n,} 表示至少n次, {n,m} 表示n到m次。

  • 分组 :在正则表达式中,使用括号 () 来创建分组,这在进行查找和替换操作时非常有用。

  • 字符集 :用 [] 表示,匹配字符集中的任意一个字符。例如 [abc] 将匹配任何一个字符 a b c

下面是一个简单的Python示例代码,演示如何使用 re 模块的基本功能:

import re

# 搜索字符串中所有符合模式的子串
pattern = r'\d+'  # 匹配数字的正则表达式
subject = 'There are 123 apples and 245 bananas in the basket.'
matches = re.findall(pattern, subject)

print(matches)  # 输出匹配结果:['123', '245']

4.1.2 常用正则表达式模式和函数

re 模块中,常用的函数包括 match() , search() , findall() sub() 等。

  • match() 函数尝试从字符串的起始位置匹配一个模式,如果不是起始位置匹配成功的话, match() 就返回none。
  • search() 函数扫描整个字符串,返回第一个成功匹配的子串。

  • findall() 函数返回字符串中所有匹配的子串列表。

  • sub() 函数用于替换字符串中所有匹配的子串。

下面是一个使用 sub() 函数进行字符串替换的例子:

# 使用re.sub()函数进行字符串替换
text = "Hello World! World is great."
replaced_text = re.sub(r'World', 'Python', text)

print(replaced_text)  # 输出替换后的字符串:Hello Python! Python is great.

在使用正则表达式时,需要注意转义字符的使用,如在正则表达式中要匹配一个实际的反斜杠字符,需要写成 \\

正则表达式提供了强大灵活的文本匹配能力,但如果不熟悉语法规则,很容易产生错误的匹配结果。因此,理解并正确使用正则表达式的组成和语法规则对于编写高效准确的爬虫程序至关重要。

4.2 正则表达式在爬虫中的应用

4.2.1 提取网页中的特定信息

在进行网页数据抓取时,经常需要从HTML中提取出特定的信息。这时,正则表达式就发挥其强大的作用。

例如,假设我们需要从网页内容中提取所有电话号码。电话号码的常见格式是: XXX-XXXXXXX XXX.XXXXXX ,我们可以编写如下正则表达式来匹配:

import re

html_content = '<p>Contact us at 123-4567890 or 987.6543210 for more information.</p>'
pattern = r'\d{3}[-.]?\d{7}'

phone_numbers = re.findall(pattern, html_content)
print(phone_numbers)  # 输出匹配结果:['123-4567890', '987.6543210']

4.2.2 数据清洗和预处理

在数据预处理阶段,正则表达式同样有重要的作用。例如,我们要从文本中清除非数字字符,以获得纯粹的数字串,可以使用如下正则表达式:

import re

data = 'The price of the product is $29.99 and $15.50.'
cleaned_data = re.sub(r'[^\d.]', '', data)

print(cleaned_data)  # 输出清洗后的数据:29.9915.50

在这个例子中,使用正则表达式 [^\d.] 匹配了所有非数字及非点号的字符,并将其替换为空字符串。

以上就是在网络爬虫应用中,正则表达式的一些基本使用场景和技巧。掌握好正则表达式,能够在数据提取和清洗方面大幅提升效率和准确性,是爬虫开发者必须具备的技能之一。

5. Scrapy框架的搭建与使用

Scrapy是一个快速、高层次的屏幕抓取和网络爬取框架,用于抓取web站点并从页面中提取结构化的数据。本章节将详细介绍Scrapy框架的安装、组件架构以及高级应用,包括如何利用管道(Pipelines)和中间件(Middlewares)对数据进行进一步处理,以及如何实现分布式爬取,以提高爬取效率和性能。

5.1 Scrapy框架概述

Scrapy的设计思想借鉴了Twisted异步网络框架,使其能够以非阻塞的方式进行网络请求。这不仅提升了爬虫的性能,也使得Scrapy能够支持大规模的网络爬取任务。

5.1.1 Scrapy框架的安装和初始化

安装Scrapy非常简单,可以通过Python的包管理工具pip进行安装:

pip install scrapy

安装完成后,可以通过运行 scrapy 命令来验证安装是否成功。接下来,可以通过 scrapy startproject 命令创建一个新的Scrapy项目:

scrapy startproject myproject

5.1.2 Scrapy框架的架构和组件

Scrapy框架由多个组件构成,以下是其主要组件及其职责:

  • Engine :Scrapy引擎,用于处理整个系统的数据流处理和触发事件。
  • Scheduler :调度器,负责接收引擎发送过来的请求,并按照一定规则进行调度。
  • Downloader :下载器,负责下载Engine发送的所有请求。
  • Spider :爬虫,负责解析下载器返回的响应,并产生相应的Item或请求新的URL。
  • Item Pipeline :项目管道,负责处理Spider输出的Item。
  • Downloader Middlewares :下载器中间件,位于引擎和下载器之间,提供了一个框架用于处理下载器的响应。
  • Spider Middlewares :爬虫中间件,位于引擎和爬虫之间,提供了一个框架用于处理Spiders的输入响应和输出项。

![Scrapy架构](***

***框架的高级应用

5.2.1 管道(Pipelines)和中间件(Middlewares)

管道 是处理爬虫生成Item的组件。当Item被生成后,它将被顺序地传递到Item Pipeline,每个Item Pipeline组件都实现了一些处理操作,比如清理数据、验证数据和存储数据。

一个简单的Item Pipeline例子:

class MyItemPipeline(object):

    def process_item(self, item, spider):
        # 处理Item的方法
        return item

中间件 提供了一个简便的方法,用于改变或增强Scrapy核心组件的功能。中间件可以被定义为下载器中间件和爬虫中间件。下载器中间件允许在Scrapy发送请求或处理响应时插入自定义的代码。爬虫中间件允许在Scrapy处理下载器返回的响应和Spider处理响应生成Item之前插入自定义的代码。

一个简单的下载器中间件例子:

class MyDownloaderMiddleware(object):

    def process_request(self, request, spider):
        # 在发送请求之前的操作
        pass

    def process_response(self, request, response, spider):
        # 在接收响应之后的操作
        return response

5.2.2 分布式爬取的实践

分布式爬取是通过多个Scrapy实例来分散负载,从而提高爬取效率和数据的采集速度。Scrapy可以通过 scrapy-redis 来实现分布式爬虫。

首先,需要安装 scrapy-redis 库:

pip install scrapy-redis

然后,在Scrapy项目设置中添加 scrapy-redis 的配置:

# settings.py
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"

通过以上配置,Scrapy将使用 scrapy-redis 提供的调度器和去重过滤器,可以将爬取任务分布式地存放在Redis中,由多个Scrapy实例共同处理。

通过分布式爬取,可以轻松地扩展爬取能力,实现大规模的爬取任务。但同时也要注意合理控制爬虫的访问频率,遵守网站的Robots协议,避免给网站服务器造成不必要的压力。

以上内容为Scrapy框架的搭建与使用的核心知识,为了能更好地理解和运用Scrapy进行高效的数据爬取,建议读者进行实际的项目操作实践,并深入研究Scrapy的相关高级用法和优化策略。

6. 实例项目:中国大学排名爬虫与股票数据爬取

6.1 中国大学排名爬虫项目实施

6.1.1 需求分析和网页结构分析

在开始编写爬虫代码之前,首先需要对目标网页进行详尽的需求分析和结构分析。对于中国大学排名爬虫项目,我们关注的关键数据包括学校名称、所在地区、排名位置、学科评分等信息。

在分析网页时,我们通常会使用浏览器的开发者工具进行页面源代码的检查。通过检查,我们发现需要的数据是以表格形式呈现,并且每一行对应一所大学的信息。在HTML中,这些数据被包裹在 <table> 标签内,每所大学的详细信息又嵌套在一个 <tr> 标签内。

一个典型的学校信息部分代码片段如下:

<tr>
    <td>清华大学</td>
    <td>北京</td>
    <td>第1名</td>
    <td>应用经济学:92分</td>
    <!-- 其他评分数据 -->
</tr>

6.1.2 数据抓取、解析和存储

在明确了数据的布局后,我们可以使用前面章节提到的Requests库和BeautifulSoup库来实现数据的抓取、解析和存储。

首先,使用Requests库获取页面内容:

import requests
from bs4 import BeautifulSoup

# 目标网页URL
url = '***'

# 发送HTTP请求
response = requests.get(url)
response.encoding = response.apparent_encoding

获取响应后,我们使用BeautifulSoup解析页面:

soup = BeautifulSoup(response.text, 'html.parser')
table = soup.find('table', {'class': 'ranking-table'})  # 假设排名表格的class为'ranking-table'

接下来,定位到每一行 <tr> 标签,提取数据:

rows = table.find_all('tr')
for row in rows[1:]:  # 跳过表头
    cols = row.find_all('td')
    university = cols[0].text.strip()  # 学校名称
    location = cols[1].text.strip()     # 所在地区
    rank = cols[2].text.strip()         # 排名
    scores = cols[3].text.strip()       # 各学科评分
    # 存储数据到数据库或其他存储系统中
    # 此处省略具体存储代码

6.2 股票数据爬取项目实施

6.2.1 实时股票数据获取方法

实时股票数据可以通过各种金融数据提供商的API获得。比如,可以通过如Yahoo Finance、Alpha Vantage等API来获取实时股票报价、历史数据和其他相关金融信息。

一般而言,获取这些数据的步骤包括注册账户、获取API密钥、阅读API文档和编写代码调用API。以下是一个使用 requests 库通过Alpha Vantage API获取股票数据的示例:

import requests

API_KEY = 'your_api_key_here'
STOCK_SYMBOL = 'AAPL'  # 以苹果公司的股票代码为例

url = f'***{STOCK_SYMBOL}&apikey={API_KEY}'
response = requests.get(url)

# 将响应的内容从JSON格式解析出来
data = response.json()

print(data)  # 打印原始数据以查看格式

6.2.2 数据抓取、处理和分析

获取到的股票数据通常是JSON格式。我们可以使用Python的 json 库将其解析为字典,然后提取我们感兴趣的信息,如股票的最新价格、交易量等。

import json

# 解析JSON格式数据
parsed_json = json.loads(data['Global Quote'])

# 提取股票信息
price = parsed_json['05. price']
volume = parsed_json['06. volume']

# 存储数据或进一步分析
# 此处省略具体存储和分析代码

在抓取到数据后,我们可以通过编写分析脚本来计算股票的涨跌幅、绘制价格走势图表等。Python中有着大量的数据分析和可视化的库,比如 pandas matplotlib 等,可以提供强大的支持。

请注意,股票市场波动大,数据的实时性和准确性对于交易决策至关重要,因此在开发和使用股票数据爬虫时,开发者需要对市场动态保持高度的关注,并确保所用数据的实时性和可靠性。

本文还有配套的精品资源,点击获取 menu-r.4af5f7ec.gif

简介:本学习资料集合了Python网络爬虫从基础到进阶的全方位技术,深入介绍了请求库Requests、解析库BeautifulSoup、正则表达式Re以及Scrapy框架的使用。其中,详细讲解了网络请求发送、数据提取、正则表达式匹配等技术要点,并通过多个实例教程引导学习者实现具体的爬虫项目,如中国大学排名和股票数据爬取。此外,资料还包括了网络爬虫道德与法律的知识,确保学习者能够合法合规地使用所学技能。

本文还有配套的精品资源,点击获取 menu-r.4af5f7ec.gif

  • 4
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python中的xml模块提供了处理XML文件的功能。可以使用xml.etree.ElementTree模块来创建、解析和操作XML文档。 示例代码\[1\]展示了如何使用ElementTree模块创建一个XML文档,并将其写入到名为"1.xml"的文件中。首先,创建一个根元素"Root",然后创建三个子元素"name"、"age"和"gender",并将它们添加到根元素中。最后,使用ElementTree的write方法将XML文档写入文件。 示例代码\[2\]展示了如何使用ElementTree模块对XML文档进行格式化输出。通过定义一个辅助函数__indent,可以在写入XML文档之前对元素进行缩进处理,使其更易读。 示例代码\[3\]展示了如何使用ElementTree模块解析XML文档。首先,使用ElementTree的parse方法读取名为"1.xml"的文件,并获取根元素。然后,可以遍历根元素的子元素,并打印出它们的标签、文本和属性。最后,可以使用子元素的set方法添加属性,并使用ElementTree的write方法将修改后的XML文档写入到名为"2.xml"的文件中。 总结来说,Python的xml模块提供了创建、解析和操作XML文档的功能,可以方便地进行XML文件的处理。 #### 引用[.reference_title] - *1* *2* *3* [python读写xml文件](https://blog.csdn.net/qq_40006760/article/details/119251626)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值