运行mysql程序_mysql(一)--mysql架构和执行流程

InnoDB(2 个文件)

https://dev.mysql.com/doc/refman/5.7/en/innodb-storage-engine.html

The default storage engine in MySQL 5.7. InnoDB is a transaction-safe (ACID compliant) storage engine for MySQL that

has commit, rollback, and crash-recovery capabilities to protect user data. InnoDB row-level locking (without escalation to

coarser granularity locks) and Oracle-style consistent nonlocking reads increase multi-user concurrency and performance.

InnoDB stores user data in clustered indexes to reduce I/O for common queries based on primary keys. To maintain data

integrity, InnoDB also supports FOREIGN KEY referential-integrity constraints.

mysql 5.7 中的默认存储引擎。InnoDB 是一个事务安全(与 ACID 兼容)的 MySQL

存储引擎,它具有提交、回滚和崩溃恢复功能来保护用户数据。InnoDB 行级锁(不升级

为更粗粒度的锁)和 Oracle 风格的一致非锁读提高了多用户并发性和性能。InnoDB 将

用户数据存储在聚集索引中,以减少基于主键的常见查询的 I/O。为了保持数据完整性,

InnoDB 还支持外键引用完整性约束。

特点:

支持事务,支持外键,因此数据的完整性、一致性更高。

支持行级别的锁和表级别的锁。

支持读写并发,写不阻塞读(MVCC)。

特殊的索引存放方式,可以减少 IO,提升查询效率。

适合:经常更新的表,存在并发读写或者有事务处理的业务系统

Memory(1 个文件)

Stores all data in RAM, for fast access in environments that require quick lookups of non-critical data. This engine was

formerly known as the HEAP engine. Its use cases are decreasing; InnoDB with its buffer pool memory area provides a

general-purpose and durable way to keep most or all data in memory, and NDBCLUSTER provides fast key-value lookups for

huge distributed data sets.

将所有数据存储在 RAM 中,以便在需要快速查找非关键数据的环境中快速访问。这

个引擎以前被称为堆引擎。其使用案例正在减少;InnoDB 及其缓冲池内存区域提供了一

种通用、持久的方法来将大部分或所有数据保存在内存中,而 ndbcluster 为大型分布式

数据集提供了快速的键值查找。

特点:

把数据放在内存里面,读写的速度很快,但是数据库重启或者崩溃,数据会全部消

失。只适合做临时表。

将表中的数据存储到内存中。

CSV(3 个文件)

Its tables are really text files with comma-separated values. CSV tables let you import or dump data in CSV format, to

exchange data with scripts and applications that read and write that same format. Because CSV tables are not indexed, you

typically keep the data in InnoDB tables during normal operation, and only use CSV tables during the import or export stage.

它的表实际上是带有逗号分隔值的文本文件。

csv表允许以csv格式导入或转储数据,

以便与读写相同格式的脚本和应用程序交换数据。因为 csv 表没有索引,所以通常在正

常操作期间将数据保存在 innodb 表中,并且只在导入或导出阶段使用 csv 表。

特点:不允许空行,不支持索引。格式通用,可以直接编辑,适合在不同数据库之

间导入导出

Archive(2 个文件)

These compact, unindexed tables are intended for storing and retrieving large amounts of seldom-referenced historical,

archived, or security audit information.

这些紧凑的未索引的表用于存储和检索大量很少引用的历史、存档或安全审计信息。

特点:不支持索引,不支持 update delete。

这是 MySQL 里面常见的一些存储引擎,我们看到了,不同的存储引擎提供的特性都

不一样,它们有不同的存储机制、索引方式、锁定水平等功能。

我们在不同的业务场景中对数据操作的要求不同,就可以选择不同的存储引擎来满

足我们的需求,这个就是 MySQL 支持这么多存储引擎的原因。

1.5.4.如何选择存储引擎?

如果对数据一致性要求比较高,需要事务支持,可以选择 InnoDB。

如果数据查询多更新少,对查询性能要求比较高,可以选择 MyISAM。

如果需要一个用于查询的临时表,可以选择 Memory。

如果所有的存储引擎都不能满足你的需求,并且技术能力足够,可以根据官网内部

手册用 C 语言开发一个存储引擎

https://dev.mysql.com/doc/internals/en/custom-engine.html

1.6. 执行引擎(Query Execution Engine),返回结果

OK,存储引擎分析完了,它是我们存储数据的形式,继续第二个问题,是谁使用执

行计划去操作存储引擎呢?

这就是我们的执行引擎,它利用存储引擎提供的相应的 API 来完成操作。

为什么我们修改了表的存储引擎,操作方式不需要做任何改变?因为不同功能的存

储引擎实现的 API 是相同的。

最后把数据返回给客户端,即使没有结果也要返回。

2. MySQL 体系结构总结

基于上面分析的流程,我们一起来梳理一下 MySQL 的内部模块。

2.1. 模块详解

5a0d22ace317378e4ca4422e547061dd.png

1、 Connector:用来支持各种语言和 SQL 的交互,比如 PHP,Python,Java 的

JDBC;

2、 Management Serveices & Utilities:系统管理和控制工具,包括备份恢复MySQL 复制、集群等等;

3、 Connection Pool:连接池,管理需要缓冲的资源,包括用户密码权限线程等等;

4、 SQL Interface:用来接收用户的 SQL 命令,返回用户需要的查询结果

5、 Parser:用来解析 SQL 语句;

6、 Optimizer:查询优化器;

7、 Cache and Buffer:查询缓存,除了行记录的缓存之外,还有表缓存,Key 缓存,权限缓存等等;

8、 Pluggable Storage Engines:插件式存储引擎,它提供 API 给服务层使用,跟具体的文件打交道

2.2. 架构分层

总体上,我们可以把 MySQL 分成三层,跟客户端对接的连接层,真正执行操作的服

务层,和跟硬件打交道的存储引擎层(参考 MyBatis:接口、核心、基础)。

c7046f7e5a1938a4d164e3c6153e56fa.png

2.1.1.连接层

我们的客户端要连接到 MySQL 服务器 3306 端口,必须要跟服务端建立连接,那么

管理所有的连接,验证客户端的身份和权限,这些功能就在连接层完成。

2.1.2.服务层

连接层会把 SQL 语句交给服务层,这里面又包含一系列的流程:

比如查询缓存的判断、根据 SQL 调用相应的接口,对我们的 SQL 语句进行词法和语

法的解析(比如关键字怎么识别,别名怎么识别,语法有没有错误等等)。

然后就是优化器,MySQL 底层会根据一定的规则对我们的 SQL 语句进行优化,最

后再交给执行器去执行。

2.1.3.存储引擎

存储引擎就是我们的数据真正存放的地方,在 MySQL 里面支持不同的存储引擎。

再往下就是内存或者磁盘。

3. 一条更新 SQL 是如何执行的?

讲完了查询流程,我们是不是再讲讲更新流程、插入流程和删除流程?

在数据库里面,我们说的 update 操作其实包括了更新、插入和删除。如果大家有看

过 MyBatis 的源码,应该知道 Executor 里面也只有 doQuery()和 doUpdate()的方法,

没有 doDelete()和 doInsert()。

更新流程和查询流程有什么不同呢?

基本流程也是一致的,也就是说,它也要经过解析器、优化器的处理,最后交给执行器。

区别就在于拿到符合条件的数据之后的操作。

3.1. 缓冲池 Buffer Pool

首先,InnnoDB 的数据都是放在磁盘上的,InnoDB 操作数据有一个最小的逻辑单

位,叫做页(索引页和数据页)。我们对于数据的操作,不是每次都直接操作磁盘,因

为磁盘的速度太慢了。InnoDB 使用了一种缓冲池的技术,也就是把磁盘读到的页放到一

块内存区域里面。这个内存区域就叫 Buffer Pool

f12cd9207736faba4f6bb7d414b06c8f.png

下一次读取相同的页,先判断是不是在缓冲池里面,如果是,就直接读取,不用再

次访问磁盘。

修改数据的时候,先修改缓冲池里面的页。内存的数据页和磁盘数据不一致的时候,

我们把它叫做脏页。InnoDB 里面有专门的后台线程把 Buffer Pool 的数据写入到磁盘,

每隔一段时间就一次性地把多个修改写入磁盘,这个动作就叫做刷脏。

Buffer Pool 是 InnoDB 里面非常重要的一个结构,它的内部又分成几块区域。这里

我们趁机到官网来认识一下 InnoDB 的内存结构和磁盘结构。

bacbfe749674c48aceeabf2d384ee6c7.png

3.3.1.内存结构

Buffer Pool 主要分为 3 个部分: Buffer Pool、Change Buffer、Adaptive Hash

Index,另外还有一个(redo)log buffer。

1、Buffer Pool

Buffer Pool 缓存的是页面信息,包括数据页、索引页。

查看服务器状态,里面有很多跟 Buffer Pool 相关的信息:

SHOW STATUS LIKE '%innodb_buffer_pool%';

这些状态都可以在官网查到详细的含义,用搜索功能。

https://dev.mysql.com/doc/refman/5.7/en/server-status-variables.html

9bc734342f61bb2af63f6af215442aa3.png

Buffer Pool 默认大小是 128M(134217728 字节),可以调整。

查看参数(系统变量):

SHOW VARIABLES like '%innodb_buffer_pool%';

这些参数都可以在官网查到详细的含义,用搜索功能。

https://dev.mysql.com/doc/refman/5.7/en/server-system-variables.html

f94b2862da5d4141d341a5bc2dcd8c08.png

内存的缓冲池写满了怎么办?(Redis 设置的内存满了怎么办?)InnoDB 用 LRU

算法来管理缓冲池(链表实现,不是传统的 LRU,分成了 young 和 old),经过淘汰的

数据就是热点数据

内存缓冲区对于提升读写性能有很大的作用。思考一个问题:

当需要更新一个数据页时,如果数据页在 Buffer Pool 中存在,那么就直接更新好了。

否则的话就需要从磁盘加载到内存,再对内存的数据页进行操作。也就是说,如果

没有命中缓冲池,至少要产生一次磁盘 IO,有没有优化的方式呢?

2、Change Buffer 写缓冲

如果这个数据页不是唯一索引,不存在数据重复的情况,也就不需要从磁盘加载索

引页判断数据是不是重复(唯一性检查)。这种情况下可以先把修改记录在内存的缓冲

池中,从而提升更新语句(Insert、Delete、Update)的执行速度。

这一块区域就是 Change Buffer。5.5 之前叫 Insert Buffer 插入缓冲,现在也能支

持 delete 和 update。

最后把 Change Buffer 记录到数据页的操作叫做 merge。什么时候发生 merge?

有几种情况:在访问这个数据页的时候,或者通过后台线程、或者数据库 shut down、

redo log 写满时触发。

如果数据库大部分索引都是非唯一索引,并且业务是写多读少,不会在写数据后立

刻读取,就可以使用 Change Buffer(写缓冲)。写多读少的业务,调大这个值:

SHOW VARIABLES LIKE 'innodb_change_buffer_max_size';

代表 Change Buffer 占 Buffer Pool 的比例,默认 25%。

3、Adaptive Hash Index

索引应该是放在磁盘的,为什么要专门把一种哈希的索引放到内存?下次课再说。

4、(redo)Log Buffer

思考一个问题:如果 Buffer Pool 里面的脏页还没有刷入磁盘时,数据库宕机或者重

启,这些数据丢失。如果写操作写到一半,甚至可能会破坏数据文件导致数据库不可用。

为了避免这个问题,InnoDB 把所有对页面的修改操作专门写入一个日志文件,并且

在数据库启动时从这个文件进行恢复操作(实现 crash-safe)——用它来实现事务的持

久性。

101a103da6de1267b8ded416c0b64f95.png

这个文件就是磁盘的 redo log(叫做重做日志),对应于/var/lib/mysql/目录下的

ib_logfile0 和 ib_logfile1,每个 48M。

这 种 日 志 和 磁 盘 配 合 的 整 个 过 程 , 其 实 就 是 MySQL 里 的 WAL 技 术

(Write-Ahead Logging),它的关键点就是先写日志,再写磁盘。

show variables like 'innodb_log%';

68488ac9fc49f35a995c9aeb119df64d.png

问题:

同样是写磁盘,为什么不直接写到 db file 里面去?为什么先写日志再写磁盘?

我们先来了解一下随机 I/O 和顺序 I/O 的概念。

磁盘的最小组成单元是扇区,通常是 512 个字节。

操作系统和内存打交道,最小的单位是页 Page。

操作系统和磁盘打交道,读写磁盘,最小的单位是块 Block

9a351741f75fcfb45a520c151b5a42d5.png

如果我们所需要的数据是随机分散在不同页的不同扇区中,那么找到相应的数据需

要等到磁臂旋转到指定的页,然后盘片寻找到对应的扇区,才能找到我们所需要的一块

数据,一次进行此过程直到找完所有数据,这个就是随机 IO,读取数据速度较慢。

假设我们已经找到了第一块数据,并且其他所需的数据就在这一块数据后边,那么

就不需要重新寻址,可以依次拿到我们所需的数据,这个就叫顺序 IO。

刷盘是随机 I/O,而记录日志是顺序 I/O,顺序 I/O 效率更高。因此先把修改写入日

志,可以延迟刷盘时机,进而提升系统吞吐。

当然 redo log 也不是每一次都直接写入磁盘,在 Buffer Pool 里面有一块内存区域

(Log Buffer)专门用来保存即将要写入日志文件的数据,默认 16M,它一样可以节省

磁盘 IO。

e9357caa0966eb47b91becce924b2628.png

SHOW VARIABLES LIKE 'innodb_log_buffer_size';

需要注意:redo log 的内容主要是用于崩溃恢复。磁盘的数据文件,数据来自 buffer

pool。redo log 写入磁盘,不是写入数据文件。

那么,Log Buffer 什么时候写入 log file?

在我们写入数据到磁盘的时候,操作系统本身是有缓存的。flush 就是把操作系统缓

冲区写入到磁盘。

log buffer 写入磁盘的时机,由一个参数控制,默认是 1。

SHOW VARIABLES LIKE 'innodb_flush_log_at_trx_commit';

https://dev.mysql.com/doc/refman/5.7/en/innodb-parameters.html#sysvar_innodb_flush_log_at_trx_commit

74540d3f6fa2e5ad19472f8d9e2f6fd7.png

这是内存结构的第 4 块内容,redo log,它又分成内存和磁盘两部分。redo log 有

什么特点?

1、redo log 是 InnoDB 存储引擎实现的,并不是所有存储引擎都有。

2、不是记录数据页更新之后的状态,而是记录这个页做了什么改动,属于物理日志。

3、redo log 的大小是固定的,前面的内容会被覆盖。

ef1d6c056be55e837dd1ace2fe2b9e18.png

check point 是当前要覆盖的位置。如果 write pos 跟 check point 重叠,说明 redo

log 已经写满,这时候需要同步 redo log 到磁盘中。

这是 MySQL 的内存结构,总结一下,分为:

Buffer pool、change buffer、Adaptive Hash Index、 log buffer。

磁盘结构里面主要是各种各样的表空间,叫做 Table space。

3.3.2.磁盘结构

表空间可以看做是 InnoDB 存储引擎逻辑结构的最高层,所有的数据都存放在表空

间中。InnoDB 的表空间分为 5 大类。

系统表空间 system tablespace

在默认情况下 InnoDB 存储引擎有一个共享表空间(对应文件/var/lib/mysql/

ibdata1),也叫系统表空间。

InnoDB 系统表空间包含 InnoDB 数据字典和双写缓冲区,Change Buffer 和 Undo

Logs),如果没有指定 file-per-table,也包含用户创建的表和索引数据。

1、undo 在后面介绍,因为有独立的表空间。

2、数据字典:由内部系统表组成,存储表和索引的元数据(定义信息)。

3、双写缓冲(InnoDB 的一大特性):

InnoDB 的页和操作系统的页大小不一致,InnoDB 页大小一般为 16K,操作系统页

大小为 4K,InnoDB 的页写入到磁盘时,一个页需要分 4 次写

cdc4a2f8ccb1b3fdb6899649ac04b3b1.png

如果存储引擎正在写入页的数据到磁盘时发生了宕机,可能出现页只写了一部分的

情况,比如只写了 4K,就宕机了,这种情况叫做部分写失效(partial page write),可

能会导致数据丢失

show variables like 'innodb_doublewrite';

我们不是有 redo log 吗?但是有个问题,如果这个页本身已经损坏了,用它来做崩

溃恢复是没有意义的。所以在对于应用 redo log 之前,需要一个页的副本。如果出现了

写入失效,就用页的副本来还原这个页,然后再应用 redo log。这个页的副本就是 double

write,InnoDB 的双写技术。通过它实现了数据页的可靠性。

跟 redo log 一样,double write 由两部分组成,一部分是内存的 double write,

一个部分是磁盘上的 double write。因为 double write 是顺序写入的,不会带来很大的

开销。

在默认情况下,所有的表共享一个系统表空间,这个文件会越来越大,而且它的空

间不会收缩。

独占表空间 file-per-table tablespaces

我们可以让每张表独占一个表空间。这个开关通过 innodb_file_per_table 设置,默

认开启

SHOW VARIABLES LIKE 'innodb_file_per_table';

开启后,则每张表会开辟一个表空间,这个文件就是数据目录下的 ibd 文件(例如

/var/lib/mysql/gupao/user_innodb.ibd),存放表的索引和数据。

但是其他类的数据,如回滚(undo)信息,插入缓冲索引页、系统事务信息,二次

写缓冲(Double write buffer)等还是存放在原来的共享表空间内。

通用表空间 general tablespaces

通用表空间也是一种共享的表空间,跟 ibdata1 类似。

可以创建一个通用的表空间,用来存储不同数据库的表,数据路径和文件可以自定

义。语法:

create tablespace ts2673 add datafile '/var/lib/mysql/ts2673.ibd' file_block_size=16K engine=innodb;

在创建表的时候可以指定表空间,用 ALTER 修改表空间可以转移表空间。

create table t2673(id integer) tablespace ts2673;

不同表空间的数据是可以移动的。

删除表空间需要先删除里面的所有表:

drop table t2673;

drop tablespace ts2673;

临时表空间 temporary tablespaces

存储临时表的数据,包括用户创建的临时表,和磁盘的内部临时表。对应数据目录

下的 ibtmp1 文件。当数据服务器正常关闭时,该表空间被删除,下次重新产生。

Redo log

磁盘结构里面的 redo log,在前面已经介绍过了。

undo log tablespace

https://dev.mysql.com/doc/refman/5.7/en/innodb-undo-tablespaces.html

https://dev.mysql.com/doc/refman/5.7/en/innodb-undo-logs.html

undo log(撤销日志或回滚日志)记录了事务发生之前的数据状态(不包括 select)。

如果修改数据时出现异常,可以用 undo log 来实现回滚操作(保持原子性)。

在执行 undo 的时候,仅仅是将数据从逻辑上恢复至事务之前的状态,而不是从物

理页面上操作实现的,属于逻辑格式的日志。

redo Log 和 undo Log 与事务密切相关,统称为事务日志。

undo Log 的数据默认在系统表空间 ibdata1 文件中,因为共享表空间不会自动收

缩,也可以单独创建一个 undo 表空间。

show global variables like '%undo%';

有了这些日志之后,我们来总结一下一个更新操作的流程,这是一个简化的过程。

name 原值是 lei1。

update user set name = 'penyuyan' where id=1;

1、事务开始,从内存或磁盘取到这条数据,返回给 Server 的执行器;

2、执行器修改这一行数据的值为 penyuyan;

3、记录 name=qingshan 到 undo log;

4、记录 name=penyuyan 到 redo log;

5、调用存储引擎接口,在内存(Buffer Pool)中修改 name=penyuyan;

6、事务提交。

内存和磁盘之间,工作着很多后台线程。

3.3.3.后台线程

(供了解)

后台线程的主要作用是负责刷新内存池中的数据和把修改的数据页刷新到磁盘。后

台线程分为:master thread,IO thread,purge thread,page cleaner thread。

master thread 负责刷新缓存数据到磁盘并协调调度其它后台进程。

IO thread 分为 insert buffer、log、read、write 进程。分别用来处理 insert buffer、

重做日志、读写请求的 IO 回调。purge thread 用来回收 undo 页。

page cleaner thread 用来刷新脏页。

除了 InnoDB 架构中的日志文件,MySQL 的 Server 层也有一个日志文件,叫做

binlog,它可以被所有的存储引擎使用。

3.3. Binlog

https://dev.mysql.com/doc/refman/5.7/en/binary-log.html

binlog 以事件的形式记录了所有的 DDL 和 DML 语句(因为它记录的是操作而不是

数据值,属于逻辑日志),可以用来做主从复制和数据恢复。

跟 redo log 不一样,它的文件内容是可以追加的,没有固定大小限制。

在开启了 binlog 功能的情况下,我们可以把 binlog 导出成 SQL 语句,把所有的操

作重放一遍,来实现数据的恢复。

binlog 的另一个功能就是用来实现主从复制,它的原理就是从服务器读取主服务器

的 binlog,然后执行一遍。

配置方式和主从复制的实现原理在 Mycat 第二节课中有讲述。

有了这两个日志之后,我们来看一下一条更新语句是怎么执行的:

3878df8d0ee2b25cbce53b87a67269fb.png

例如一条语句:update teacher set name='盆鱼宴' where id=1;

1、先查询到这条数据,如果有缓存,也会用到缓存。

2、把 name 改成盆鱼宴,然后调用引擎的 API 接口,写入这一行数据到内存,同时

记录 redo log。这时 redo log 进入 prepare 状态,然后告诉执行器,执行完成了,可以随时提交。

3、执行器收到通知后记录 binlog,然后调用存储引擎接口,设置 redo log为 commit状态。

4、更新完成。

这张图片的重点(没必要背下来):

1、先记录到内存,再写日志文件

2、记录 redo log 分为两个阶段。

3、存储引擎和 Server 记录不同的日志。

3、先记录 redo,再记录 binlog。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这段代码是一个 `docker-compose.yml` 文件,用于定义一个多容器的 Docker 应用程序。主要分为三个部分,分别是版本信息、网络信息和服务信息,下面是详细的翻译: ``` version: '3' # 版本号 networks: # 网络配置 likeadmin: # 网络名 driver: bridge # 网络类型 services: # 服务配置 nginx: # nginx服务 container_name: likeadmin-nginx # 容器名 image: nginx:1.23.1 # 容器镜像 restart: always # 容器停止后自动重启 depends_on: # 依赖关系 - "php" # 依赖于php服务 volumes: # 挂载卷 - ../server:/docker_php/server - ./config/nginx/conf.d:/etc/nginx/conf.d - ./log/nginx/logs:/logs networks: # 网络 - likeadmin ports: # 端口绑定 - "80:80" php: # php服务 container_name: likeadmin-php image: likeshop/php:8.0.22-fpm restart: always working_dir: /docker_php/server volumes: - ../server:/docker_php/server networks: - likeadmin ports: - "9000:9000" user: "1000:1000" mysql: # mysql服务 container_name: likeadmin-mysql image: mysql:5.7.29 #X86架构 #image: amd64/mysql:5.7.29 #arm架构 restart: always environment: # 环境变量 MYSQL_ROOT_PASSWORD: root volumes: # 挂载卷 - ./data/mysql5.7.29/lib:/var/lib/mysql - ./config/mysql/mysqld.cnf:/etc/mysql/my.cnf networks: # 网络 - likeadmin ports: # 端口绑定 - "3306:3306" redis: # redis服务 container_name: likeadmin-redis image: redis:7.0.4 restart: always volumes: # 挂载卷 - ./data/redis:/data networks: # 网络 - likeadmin ports: # 端口绑定 - "6379:6379" node: # node服务 container_name: likeadmin-node image: node:14.18.1 restart: always volumes: # 挂载卷 - ../admin:/likeadmin_php/admin networks: # 网络 - likeadmin tty: true working_dir: /likeadmin_php/admin ports: # 端口绑定 - "5173:5173" ``` 这个 `docker-compose.yml` 文件定义了5个服务,分别是 `nginx`、`php`、`mysql`、`redis` 和 `node`,并且它们都在同一个网络 `likeadmin` 中。每个服务都有自己的 `container_name`、`image`、`restart`、`volumes`、`networks` 和 `ports` 等配置信息,其中 `depends_on` 用于定义服务之间的依赖关系。 希望这个翻译能够帮助你更好地理解这个 `docker-compose.yml` 文件。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值