将单张图像的json转化成图片

'''
将单张图像的json转化成图片
'''
import json
import re
import cv2
import numpy as np

def toRgb(tmp):
    opt = re.findall(r'(.{2})', tmp)  # 将字符串两两分割
    strs = ""  # 用以存放最后结果
    for i in range(0, len(opt)):  # for循环,遍历分割后的字符串列表
        strs += str(int(opt[i], 16)) + ","  # 将结果拼接成12,12,12格式
    aa = strs[0:-1]
    aa.split(',')[0]
    num = [int(aa.split(',')[0]), int(aa.split(',')[1]), int(aa.split(',')[2])]
    return num

if __name__ == "__main__":
    path = "./json_save_path/红河-烫金工艺-套准偏差_18_IPU3_534306_0.json"
    with open(path, 'r') as load_f:
        load_dict = json.load(load_f)
        print(len(load_dict))
        height = load_dict['Height']
        width = load_dict['Width']
        Lines = load_dict['Lines']
        Polygon=load_dict['Polygons']
        Bound = load_dict['FillRects']
        img = np.zeros((width, height), dtype=np.uint8)  # random.random()方法后面不能加数据类型
        bgr_img = cv2.cvtColor(img, cv2.COLOR_GRAY2BGR)
        if (Bound is not None) and (len(Bound) != 0): #矩形标注
            Bound = load_dict['FillRects']
            Bounds1 = Bound[0]['Bounds']

            a = [int(Bounds1.split(',')[0]), int(Bounds1.split(',')[1]), int(Bounds1.split(',')[2]),
                 int(Bounds1.split(',')[3])]
            color = Bound[0]['Color']
            tmp = color[1:]
            value = toRgb(tmp)
            value =(value[0],value[1],value[2])

            print("hello")
            triangle = np.array([[0, 0], [400, 0], [400, 400], [0, 400]])

            # rect = np.arange(8).reshape((4, 2))
            rect = np.array([[0 for col in range(2)] for 
<think>我们已知用户希望将LabelMe标注的JSON数据集转换为mask图像数据。根据引用[1]和引用[2],我们可以通过编写脚本来实现批量转换。LabelMe本身提供了单张图片的转换工具(labelme_json_to_dataset),但我们需要批量处理整个文件夹中的JSON文件。 步骤概述: 1. 遍历指定文件夹中的所有JSON文件。 2. 对每个JSON文件,调用LabelMe的转换函数将其转换为一个临时文件夹,其中包含生成的mask图像(通常为label.png)。 3. 从临时文件夹中提取label.png,并按照用户的需求重命名并保存到目标文件夹中。 4. 由于LabelMe默认生成的mask是彩色的(RGB),而语义分割通常需要单通道的灰度图(每个像素值代表类别索引),因此我们还需要将彩色mask转换为灰度mask(根据颜色映射将每个RGB颜色转换为对应的类别索引)。 然而,需要注意的是,LabelMe在转换时默认使用自己的调色板(例如,第一个类别是[0,0,0],第二个是[128,0,0]等)。但我们在语义分割中需要的是每个像素的类别索引(0,1,2,...),而不是RGB值。 因此,我们有两种方法: 方法一:在转换过程中,直接生成单通道的索引图(LabelMe的转换函数实际上会生成一张名为“label.png”的索引图,但它是伪彩色图像,我们真正需要的是单通道的索引图)。实际上,LabelMe在转换时也会生成一张单通道的灰度图(名为“label_names.png”的并不是我们需要的,我们真正需要的是“label.png”的灰度版本?)。但注意,LabelMe生成的label.png是32位的彩色图,其中每个像素的颜色由调色板决定,而调色板对应类别索引。 实际上,LabelMe的转换函数生成的label.png是8位或32位的彩色图,但内部存储的是调色板索引。我们可以通过读取该图像并转换为调色板索引值来得到我们需要的单通道灰度图(每个像素值就是类别索引)。 但是,LabelMe的转换函数在生成label.png时,已经将每个像素的RGB值映射为调色板中的颜色,而调色板中的颜色顺序就是类别名称列表的顺序。因此,我们可以通过读取该图像并应用调色板来得到索引值?实际上,我们不需要自己映射,因为LabelMe在转换时已经将每个像素的RGB值设置为调色板中对应类别索引的颜色。但是,如果我们直接读取这个图像为灰度图,那么得到的并不是索引值,因为RGB转灰度会丢失信息。 正确做法:使用PIL读取label.png,并获取其调色板(如果有),然后根据调色板将颜色映射回索引。但是,更简单的方法是:在转换时,LabelMe会同时生成一个名为“label_names.txt”的文件,其中按顺序列出了类别名称,并且生成的label.png的每个像素的RGB值对应的是调色板中的颜色,而调色板的索引就是类别索引。然而,实际上,LabelMe生成的label.png是8位的P模式(调色板模式)图像,我们可以直接将其转换为一个数组,这个数组的值就是调色板索引(即类别索引)。所以,我们可以这样读取: ```python from PIL import Image img = Image.open('label.png') # 如果图像是P模式(调色板模式),则可以直接转换为索引数组 if img.mode == 'P': # 转换为一个numpy数组,其值就是类别索引 index_array = np.array(img) ``` 因此,步骤调整为: 1. 使用LabelMe的转换函数将每个json文件转换到一个临时目录。 2. 读取临时目录中的label.png(注意,这个文件是调色板图像,模式为'P'),然后直接将其转换为numpy数组,这个数组就是我们要的mask(每个像素的值就是类别索引,从0开始)。 3. 将这个数组保存为单通道的PNG图像(注意,保存时不要使用调色板,而是使用灰度模式,并且设置每个像素的值为0,1,2,...)。 但是,保存为单通道图像时,由于像素值可能很小(比如0,1,2),直接保存为8位图像是可以的(0-255,类别数不能超过256)。我们保存为8位无符号整型。 然而,我们也可以直接保存为原始的numpy数组(即索引数组)作为图像,因为PIL支持这种模式。 具体步骤: 1. 安装必要的库:labelme, numpy, PIL 2. 编写批量转换脚本。 但是,引用[1]提到,他们通过循环调用labelme_json_to_dataset来实现批量转换。因此,我们可以借鉴。 另外,引用[2]也提到,需要将json文件转换为mask格式,并划分训练集和测试集。 下面提供一个完整的脚本示例,用于批量转换: 注意:labelme_json_to_dataset命令会为每个json文件创建一个文件夹,里面包含:img.png, label.png, label_names.txt, label_viz.png。我们只需要label.png(调色板图像)并从中提取索引数组。 步骤: 1. 遍历json文件夹中的所有json文件。 2. 对每个json文件,使用labelme_json_to_dataset转换,输出到一个临时文件夹(以json文件名命名)。 3. 读取临时文件夹中的label.png,将其转换为索引数组(numpy数组)。 4. 将这个数组保存为灰度图(单通道)到目标mask文件夹,文件名与原始图像相同(但扩展名为.png)。 5. 删除临时文件夹(可选)。 但是,注意:labelme_json_to_dataset是一个命令行工具,我们可以用Python调用命令行,但这样效率不高(每次都要启动一个子进程)。另一种方法是使用labelme提供的Python API直接转换。 使用Python API(推荐): 我们可以使用labelme提供的函数来避免命令行调用。查看labelme的源码,labelme_json_to_dataset实际上是由labelme/cli/json_to_dataset.py实现的。我们可以导入这个模块并调用其函数,但更简单的是,我们可以自己写一个函数,因为转换过程并不复杂。 根据labelme的代码,我们可以这样: ```python import json import base64 import os import os.path as osp import imgviz import numpy as np from PIL import Image from labelme import utils def json_to_mask(json_file, out_dir): # 创建输出子目录(以json文件名命名) if not osp.exists(out_dir): os.mkdir(out_dir) data = json.load(open(json_file)) imageData = data.get("imageData") if not imageData: # 如果imageData不存在,则从文件读取 with open(data['imagePath'], 'rb') as f: imageData = f.read() imageData = base64.b64encode(imageData).decode('utf-8') img = utils.img_b64_to_arr(imageData) # 将标注转换为label.png lbl, lbl_names = utils.labelme_shapes_to_label( img_shape=img.shape, shapes=data['shapes'], label_name_to_value=None, # 我们让函数自动分配标签值 type='class' ) # 保存label.png(索引图像) utils.lblsave(osp.join(out_dir, 'label.png'), lbl) # 同时,我们也可以保存可视化等,但这里我们只需要label.png # 返回lbl(即索引数组)和lbl_names(类别名称列表) return lbl, lbl_names ``` 但是,上面的函数只能处理一个文件,并且我们不需要保存中间文件,可以直接得到索引数组lbl。因此,我们可以修改为不保存文件,直接返回数组。但注意,我们最终需要保存mask图像。 因此,我们可以这样批量处理: 步骤: 1. 遍历json文件夹,读取每个json文件。 2. 使用上述方法得到索引数组lbl。 3. 将lbl保存为PNG图像到目标mask目录。 但是,注意:labelme的utils.lblsave函数保存的是8位或32位的图像,但实际上是单通道的索引图像(每个像素值就是类别索引)。不过,这个函数保存的图像是调色板模式(P模式)吗?我们看一下utils.lblsave的源码: ```python def lblsave(filename, lbl): if osp.splitext(filename)[1] != '.png': filename += '.png' # Assume label ranses [0, 255] for uint8, [0, 65535] for uint16, and [0, 2**16-1] for int32. if lbl.min() >= 0 and lbl.max() < 256: lbl = lbl.astype(np.uint8) else: lbl = lbl.astype(np.uint16) im = Image.fromarray(lbl) im.save(filename) ``` 所以,它保存的是单通道的灰度图(没有调色板),但每个像素的值就是类别索引。这正是我们需要的。 因此,我们可以直接使用utils.lblsave来保存mask。 但是,我们需要注意的是,如果我们的类别索引超过255,那么就会保存为uint16(最多65535个类别)。所以,对于类别数超过255的情况,我们需要使用16位的PNG。 现在,我们编写批量转换脚本: 假设目录结构如下: - json_dir/ # 存放所有json文件 - mask_dir/ # 保存输出的mask图像(每个json文件对应一个mask,文件名与json文件相同,但扩展名为.png) 步骤: 1. 遍历json_dir中的所有json文件。 2. 对每个json文件,调用上述转换函数(基于labelme的utils)来生成mask并保存。 注意:原始图像数据可能嵌入在json中(imageData字段),也可能是外部文件(imagePath字段)。我们的代码需要处理这两种情况。 但是,在labelme的utils.labelme_shapes_to_label中已经处理了,我们只需要按照上面的方法调用即可。 完整脚本示例: ```python import json import base64 import os import os.path as osp import numpy as np from PIL import Image import glob from labelme import utils # 设置路径 json_dir = 'path/to/json_dir' # 替换为你的json文件夹路径 mask_dir = 'path/to/mask_dir' # 替换为输出mask文件夹路径 if not osp.exists(mask_dir): os.makedirs(mask_dir) json_files = glob.glob(osp.join(json_dir, '*.json')) for json_file in json_files: # 读取json文件 data = json.load(open(json_file)) imageData = data.get('imageData') if imageData is None: # 从文件读取 with open(data['imagePath'], 'rb') as f: imageData = f.read() imageData = base64.b64encode(imageData).decode('utf-8') img = utils.img_b64_to_arr(imageData) # 转换标注为label lbl, lbl_names = utils.labelme_shapes_to_label( img_shape=img.shape, shapes=data['shapes'], label_name_to_value=None, # 自动分配标签值(从0开始) type='class', # 使用类别模式(语义分割) ) # 生成mask文件名(与json文件同名,扩展名为.png) base = osp.splitext(osp.basename(json_file))[0] mask_file = osp.join(mask_dir, base + '.png') # 保存mask utils.lblsave(mask_file, lbl) # 可选:保存类别名称文件(整个数据集只需要一份,但每个json转换时可能会生成不同的类别列表,所以最好在全部转换后合并) # 这里我们暂时不保存,因为每个json文件可能包含不同的类别,但通常整个数据集的类别是一致的。 print(f'Converted {json_file} to {mask_file}') # 最后,我们可以将整个数据集的类别名称保存为一个文件 # 注意:由于每个json文件转换时可能会生成不同的lbl_names,所以我们需要在整个数据集上统一类别。 # 但上述转换中,每个文件独立转换,所以可能每个文件生成的类别索引不一致(例如,第一个json文件有3个类别,第二个json文件有2个类别,但这两个类别在第一个文件中已经出现过,则索引可能不一致)。因此,我们需要在整个数据集上统一类别映射。 # 因此,更好的做法是:先遍历所有json文件,收集所有类别名称,然后建立一个全局的label_name_to_value映射,再重新转换。 # 所以,我们可能需要分两步: # 第一步:收集所有类别名称 # 第二步:使用全局映射转换 # 由于用户可能已经定义了固定的类别顺序,所以这里我们假设用户会提供一个固定的类别列表。如果没有,我们可以自动收集。 # 这里我们假设用户没有提供,我们自动收集所有类别并排序(按名称排序,然后分配索引:0,1,2,...) # 重新修改脚本:先收集所有类别名称,再转换。 # 为了简单,我们假设用户已经知道所有类别,并希望使用固定的映射。或者,我们可以在第一次遍历时收集所有类别,然后建立映射,再在第二次遍历时使用这个映射。 # 修改后的脚本: # 第一步:收集所有类别 categories = set() for json_file in json_files: data = json.load(open(json_file)) for shape in data['shapes']: categories.add(shape['label']) categories = sorted(list(categories)) # 构建全局映射:类别名称->索引(从1开始?注意:0通常为背景) # 但是,在labelme中,背景通常不标注,所以标注的类别从0开始?实际上,在utils.labelme_shapes_to_label中,如果没有指定label_name_to_value,它会自动分配,从0开始,并且背景(不标注的区域)会被设为0吗?实际上,在函数内部,它会将没有标注的区域设为0,而第一个类别为1?我们需要查看源码。 # 查看utils.labelme_shapes_to_label的源码: # 它首先创建一个全0的数组(背景为0),然后对于每个形状,根据label_name_to_value映射为整数值,如果映射中没有,则按顺序分配(从1开始?)但是,注意参数type='class'时,它使用每个形状的label作为类别,并且会自动分配一个值(从1开始,0留给背景?) # 但是,在函数内部,它使用: # label_name_to_value = {'_background_': 0} # 然后,对于每个形状,如果它的label不在label_name_to_value中,则分配一个新的整数值(从1开始递增) # 所以,背景是0,第一个类别是1,第二个是2,等等。 # 但是,我们并不希望这样,因为通常我们希望0是背景,而类别从0开始(包括背景)?或者类别从0开始,0表示第一个类别?这取决于我们的定义。 # 在语义分割中,通常0表示背景,而类别从1开始。但是,有些数据集可能没有背景,类别从0开始。 # 所以,我们需要明确:我们是否包含背景?在LabelMe标注时,背景是不标注的,所以标注的形状都是前景类别。因此,在转换后,背景为0,前景类别从1开始。 # 但是,我们可能希望类别索引从0开始(0表示第一个类别,没有背景)。这取决于任务。 # 因此,我们可以通过提供label_name_to_value映射来控制。如果我们希望类别从0开始(0表示第一个类别),那么我们可以将背景去掉,然后让第一个类别为0。但是,这样未标注区域(背景)会被认为是0,而0是第一个类别,这就会混淆。 # 所以,通常的做法是保留背景为0,前景类别从1开始。 # 但是,如果我们不需要背景类别,或者希望将背景作为一个类别(索引0),那么这样是合适的。 # 因此,我们使用labelme的默认行为:背景0,然后前景类别从1开始递增。 # 但是,在收集所有类别时,我们不包括背景(因为背景不需要标注)。所以,我们收集的类别就是前景类别。 # 所以,我们可以在全局映射中,将背景设为0,然后每个类别按顺序分配1,2,3,... # 修改:在全局映射中,我们首先包含背景,然后按类别名称排序。 # 构建全局映射: label_name_to_value = {'_background_': 0} for idx, category in enumerate(categories, start=1): label_name_to_value[category] = idx # 第二步:重新转换每个json文件,使用这个全局映射 for json_file in json_files: data = json.load(open(json_file)) imageData = data.get('imageData') if imageData is None: with open(data['imagePath'], 'rb') as f: imageData = f.read() imageData = base64.b64encode(imageData).decode('utf-8') img = utils.img_b64_to_arr(imageData) lbl, _ = utils.labelme_shapes_to_label( img_shape=img.shape, shapes=data['shapes'], label_name_to_value=label_name_to_value, # 使用全局映射 type='class', ) base = osp.splitext(osp.basename(json_file))[0] mask_file = osp.join(mask_dir, base + '.png') utils.lblsave(mask_file, lbl) print(f'Converted {json_file} to {mask_file} with global label mapping') # 保存类别名称文件(用于后续训练,如MMSegmentation) with open(osp.join(mask_dir, 'class_names.txt'), 'w') as f: # 第一行是背景 f.write('_background_\n') for category in categories: f.write(f'{category}\n') print('Finished!') ``` 注意:这样转换后,mask图像中,0表示背景,1表示第一个类别,2表示第二个类别,以此类推。 最后,我们生成的mask图像可以直接用于MMSegmentation。在MMSegmentation中,我们需要创建一个数据集,其中图像在img_dir中,mask在ann_dir中,并且类别名称文件(class_names.txt)可以用于配置。 在MMSegmentation的配置文件中,我们可以这样指定: ```python classes = ('_background_', 'cat1', 'cat2', ...) palette = [[0,0,0], [128,0,0], ...] # 每个类别的可视化颜色,背景为黑色,然后依次为其他颜色 ``` 但是,注意:在训练时,MMSegmentation会忽略背景(如果不需要的话)?这取决于你的任务。通常,背景作为一个类别。 另外,类别数包括背景。 以上脚本可以完成转换。但是,如果数据集很大,可能会比较慢,因为要遍历两次(第一次收集类别,第二次转换)。如果类别已经明确,我们可以直接提供全局映射,跳过第一步。 如果用户希望自己定义类别顺序,可以修改脚本,从外部文件读取类别列表。 相关问题: 1. 转换后的mask图像是单通道的吗?每个像素值代表什么? 2. 如何确保不同json文件中的相同类别被映射到同一个索引? 3. 背景类别是如何处理的? 4. 如果标注时使用了不同的类别名称(比如大小写不一致)会导致什么问题?如何避免? 5. 如何将转换后的mask用于MMSegmentation训练? 注意:运行此脚本需要安装labelme,并且可能需要安装pycocotools(如果遇到相关导入错误)。 安装:pip install labelme 如果遇到问题,可以查看labelme的官方文档。 最后,我们提供完整的脚本,并建议用户根据实际情况调整路径和类别映射。</think>要将 LabelMe 标注的 JSON 数据集转换为语义分割所需的 mask 图像数据,请按照以下步骤操作: ### 完整转换流程 1. **安装依赖库** ```bash pip install labelme numpy pillow opencv-python ``` 2. **批量转换脚本**(保存为 `json_to_mask.py`) ```python import json import os import numpy as np from PIL import Image import glob def json_to_mask(json_path, output_dir): # 创建输出目录 os.makedirs(output_dir, exist_ok=True) # 获取所有JSON文件 json_files = glob.glob(os.path.join(json_path, '*.json')) # 建立全局类别映射 category_mapping = {} next_id = 1 # 0保留给背景 # 第一遍:收集所有类别 for json_file in json_files: with open(json_file, 'r') as f: data = json.load(f) for shape in data['shapes']: label = shape['label'] if label not in category_mapping and label != '_background_': category_mapping[label] = next_id next_id += 1 # 第二遍:处理每个JSON文件 for json_file in json_files: with open(json_file, 'r') as f: data = json.load(f) # 获取图像尺寸 width = data['imageWidth'] height = data['imageHeight'] # 创建空白mask mask = np.zeros((height, width), dtype=np.uint8) # 绘制所有多边形 for shape in data['shapes']: label = shape['label'] points = shape['points'] # 跳过背景标签 if label == '_background_': continue # 转换坐标为整数 polygon = [tuple(map(int, point)) for point in points] # 创建临时图像绘制多边形 img = Image.new('L', (width, height), 0) draw = Image.Draw(img) draw.polygon(polygon, fill=category_mapping[label]) # 合并到主mask mask = np.maximum(mask, np.array(img)) # 保存mask base_name = os.path.basename(json_file).replace('.json', '') mask_path = os.path.join(output_dir, f'{base_name}.png') Image.fromarray(mask).save(mask_path) # 保存类别映射文件 with open(os.path.join(output_dir, 'class_mapping.txt'), 'w') as f: for label, id in category_mapping.items(): f.write(f"{label}:{id}\n") print(f"转换完成! 共处理 {len(json_files)} 个文件") print(f"类别映射已保存到 {os.path.join(output_dir, 'class_mapping.txt')}") if __name__ == "__main__": import argparse parser = argparse.ArgumentParser(description='LabelMe JSON转Mask') parser.add_argument('--json_dir', required=True, help='JSON文件目录') parser.add_argument('--output_dir', required=True, help='Mask输出目录') args = parser.parse_args() json_to_mask(args.json_dir, args.output_dir) ``` 3. **运行脚本** ```bash python json_to_mask.py --json_dir path/to/labelme_jsons --output_dir path/to/mask_output ``` ### 关键步骤说明 1. **类别映射处理** - 自动收集所有 JSON 文件中的类别标签 - 建立全局映射关系:`{类别名: 类别ID}` - 背景自动映射为 0,其他类别从 1 开始编号 2. **多边形转换** - 将 JSON 中的多边形坐标转换为整数坐标 - 使用 `PIL.ImageDraw.polygon` 绘制每个多边形 - 使用 `np.maximum` 合并重叠区域 3. **Mask 保存** - 保存为单通道 PNG 格式 - 像素值对应类别 ID - 同时生成类别映射文件 `class_mapping.txt` ### MMSegmentation 数据集准备 转换后的目录结构: ``` my_dataset/ ├── img_dir/ │ └── train/ # 原始图像 ├── ann_dir/ │ └── train/ # 生成的mask └── class_mapping.txt ``` MMSegmentation 配置文件示例: ```python dataset_type = 'CustomDataset' data_root = 'my_dataset' classes = ('background', 'road', 'car', 'person') # 对应class_mapping.txt palette = [[0,0,0], [128,0,0], [0,128,0], [128,128,0]] data = dict( train=dict( type=dataset_type, data_root=data_root, img_dir='img_dir/train', ann_dir='ann_dir/train', classes=classes, palette=palette ) ) ``` ### 注意事项 1. **多类别处理**:脚本自动处理多个 JSON 文件中的类别一致性 2. **重叠区域**:后绘制的多边形会覆盖先绘制的区域(使用 `np.maximum`) 3. **图像尺寸**:自动从 JSON 文件中获取原始图像尺寸 4. **背景处理**:LabelMe 的 `_background_` 标签自动映射为 0 5. **验证结果**:使用以下代码可视化检查: ```python import cv2 import numpy as np mask = cv2.imread('mask.png', cv2.IMREAD_GRAYSCALE) unique_values = np.unique(mask) print("Mask中的唯一值:", unique_values) # 伪彩色可视化 colored_mask = cv2.applyColorMap(mask*30, cv2.COLORMAP_JET) cv2.imshow('Mask Preview', colored_mask) cv2.waitKey(0) ``` ### 常见问题解决 1. **坐标偏移问题**:确保 JSON 中的 `imageWidth` 和 `imageHeight` 与原始图像一致 2. **类别不一致**:检查 `class_mapping.txt` 确保所有类别正确映射 3. **小物体丢失**:对于小物体,增加 `draw.polygon` 的 `outline` 参数宽度 4. **复杂形状处理**:对于带孔洞的形状,需要使用多段多边形标注 ### 替代方案 使用 LabelMe 官方工具批量转换: ```bash # 单文件转换 labelme_json_to_dataset input.json -o output_dir # 批量转换(需自定义脚本循环调用) ``` > 提示:对于大型数据集,建议先拆分训练集/验证集,再分别转换[^2]。 --- ### 相关问题 1. 如何处理 LabelMe 标注中的图像尺寸与原始图像不一致的情况? 2. 转换后的 mask 出现边缘锯齿如何优化? 3. 如何将转换后的数据集导入 MMSegmentation 进行训练? 4. 多个人标注同一图像时如何合并 JSON 文件? 5. 如何将 LabelMe 的实例分割标注转换为语义分割 mask?
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值