大模型实战应用:面向法律领域的大模型微调与应用

摘要**:**近年来,大语言模型在多个自然语言处理任务上展现出了出色的能力,为智慧法律系统的发展带来巨大的帮助。现有法律领域的大模型,通过微调通用大模型能够实现利用法律知识进行简单的问题回答,即大多以法律咨询问答为主,没有考虑到法律领域的其他使用场景,如法律信息抽取、判决预测等,而真实世界中的法律服务要比对话服务复杂得多。提出中文法律智慧大模型LawLLM,该模型可以面向不同用户群体,提供多样的法律服务。同时,探究了针对法律领域裁判文书的长文本信息抽取的应用。LawLLM在Lawbench上的Zero-shot的平均表现超过了所有对比的大模型,均值比具有175×109个参数的GPT-3.5-Turbo高0.19%,LawLLM在Lawbench上的Few-shot的平均表现仅次于GPT-3.5-Turbo,相比其低0.02%。

关键词**:**大语言模型; 智慧法律; 自然语言处理

这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

0 引言

随着法律人工智能的兴起,自动化的法律任务,例如法律信息抽取、互动论点对提取、类似案例检索、法律问答、判决预测等任务,可以减轻法律从业者繁重的文书工作负担,提高工作效率和准确性。

由于法律知识的专业性和法律任务的多样性,在先前的智慧法律系统中,研究人员通常为每个特定的法律任务设计专门的算法或模型,面临研发成本高、集成难度大等困难。近年来,大语言模型(large language model,LLM,以下简称大模型)在多个传统自然语言处理任务上展现出了出色的表现,为实现统一框架的智慧法律系统提供了技术支持、提高了可能性。

开发一个能同时处理多种法律任务的智慧法律系统具有非常重要的应用价值。一方面,它可以提高法律相关专业人士的工作效率。法律信息抽取、类似案例检索等任务是法官、律师的常见任务,它们涉及对大量文档或案例的分析,通常需要耗费大量的人力和时间来完成,智慧法律模型通过自动化完成这些过程,可以帮助专业人士快速准确地获取所需信息,节省时间和精力。另一方面,它可以简化普通人获取法律服务的程序。通常情况下,人们在获取法律咨询服务时,需要先通过烦琐的流程来寻找合适的法律专业人员,然后再安排会面或电话咨询。智慧法律模型可以简化上述流程,直接为用户提供相关信息和建议。

除此之外,研究智慧法律模型的长文本处理能力也非常具有实际应用的价值。在实际应用中,法律文本(如裁判文书),通常是长文本甚至超长文本,法官等法律专业人士需要从这些文本中抽取和归类关键信息。尽管现有的大模型在各种自然语言处理任务中有非常好的表现,但通常仅限于处理上下文窗口大小范围内的文本。

1 研究现状

1.1 自然语言处理在智慧法律领域的应用

Zhong等研究了自然语言处理(natural language processing,NLP)在智慧法律系统中的应用,讨论了智慧法律的历史、现况和未来的研究方向。该篇文章介绍了5种在司法领域的NLP任务和4个司法数据集,任务包括司法信息抽取、司法要素识别、司法判决预测、司法类案检索、司法考试问答,并总结出了智慧法律系统应用的两大类NLP方法,分别是知识驱动的基于符号的方法(symbol-based-method)、数据驱动的基于词向量的方法(embedding-based-method)。

知识驱动的基于符号的方法主要用于关系抽取、事件时间线抽取、要素识别等任务;数据驱动的基于词向量的方法主要用于通用法律概念的词向量建模、法律知识图谱建模、预训练语言模型建模等。这两类NLP方法应用到法律文本摘要、类似案例匹配、法律知识咨询、罪名刑期预测等下游任务,对于每个任务需要分别设计和训练一个专有的模型。

1.2 法律大语言模型的研究现状

自OpenAI的ChatGPT模型发布以来,研究人员开发了很多通用基座模型,在英文领域中能力较强的有LLaMa系列,在中文领域中能力较强的有Baichuan系列、ChatGLM系列等。截至2024年3月,依然有新的基座模型被发布,这些基座模型基本以Transforme结构为主,结合指令微调(instruction tuning),基于人类反馈的强化学习(reinforcement learning from human feedback,RLHF)等技术,在通用领域具备了非常强大的能力。

考虑到领域内知识的专业性,基于这些基座模型,研究人员又开发了垂直领域的大模型,在医疗、金融、教育、法律领域都有涉及。现有法律领域的大模型,通过微调通用大模型能够利用法律知识进行简单的问题回答,即大多以法律咨询问答为主,没有考虑到法律领域的其他使用场景,如法律信息抽取、判决预测等,然而真实世界中的法律服务要比对话复杂得多。现有法律领域的大模型有LawGPT、Lawyer-LLaMa、LexiLaw、ChatLaw等。LawGPT是一系列基于中文法律知识的开源大模型,该系列模型在通用中文基座模型(如Chinese-LLaMA[20]、ChatGLM等)的基础上做法律领域专有词表扩充、大规模中文法律语料预训练,并在此基础上,构造法律领域对话问答数据集、中国司法考试数据集进行指令精调,提升模型对法律内容的理解和执行能力。Lawyer LLaMA在大规模法律语料上进行了继续预训练(continual pretraining),并借助ChatGPT收集了一批对中国国家统一法律职业资格考试客观题的分析和对法律咨询的回答,利用收集到的数据对模型进行指令微调,让模型习得将法律知识应用到具体场景中的能力。LexiLaw基于ChatGLM-6B架构,通过在法律领域的数据集上进行微调,使其在提供法律咨询和支持方面具备更高的性能和专业性。ChatLaw法律大模型开源版本的底座基于姜子牙-13B、Anima-33B,使用了大量法律新闻、法律论坛、法条、司法解释、法律咨询、法考题、判决文书等原始文本来构造对话数据。

2 中文智慧法律大模型LawLLM

2.1 模型框架及训练方法

中文智慧法律大模型LawLLM的模型整体框架如图1所示,该模型具有3个核心能力。

图片图1 中文智慧法律大模型LawLLM的模型整体框架

(1)基础的法律文本处理能力

指法律领域的文本理解和文本生成的不同基础处理能力,包括信息抽取、文本摘要等,该部分能力主要来源于基于NLP司法任务的公开数据集和真实世界的法律相关文本构建的指令微调数据集。

(2)法律推理思维能力

本文使用法律三段论的基本推理过程重构指令数据集,提高模型的法律推理能力。

(3)司法领域知识检索能力

为加强模型对与输入问题相关的背景法条或案例的知识检索能力,增加检索增强模块。

为了构建具有推理能力和检索能力的智慧法律大模型LawLLM,模型训练被分为监督微调(supervised fine-tuning,SFT)和检索增强两个阶段。

监督微调阶段的训练目标和自回归模型一样,即根据已知文本预测下一个Token。经过监督微调,模型能够具备基础的法律文本处理能力,包括法律语言的理解和生成能力,并具备法律推理思维。但在很多法律场景下,例如法律咨询和判决预测场景,模型的输出如果能有法律法规作为支持依据则更有说服力。同时在监督微调之后,模型可能会因为幻觉或过时的知识而产生不准确的输出。为了解决这个问题,检索增强阶段利用开源的检索框架Langchain来增强模型的能力。首先建立包括中国宪法、刑法、行政诉讼法、著作权法、专利法等50多类法律的知识库,将这些文档编码为向量并保存在本地知识库。检索过程中,对于每一个用户输入,检索器计算输入与知识库中文本块(chunk)的相似性,从知识库中召回最相关的Top-K个文本块,候选文档和原始用户输入经过设计的提示(prompt)组合后,再输入模型中得到输出。图2为该过程的示意图。

图片图2 检索增强过程示意图

整个训练过程基于Baichuan-13B-Base模型做全参数微调,Baichuan-13B-Base模型是在约1.4万亿Tokens的高质量预料上训练的130亿参数基模型。训练过程的超参数设置如下:批大小(batch size)为64、学习率为5×10-5、2个epoch训练阶段、上下文长度为4 096个Token、训练过程在8*A800GPU上进行。

2.2 数据集构建

法律智慧大模型需要具备不同法律场景下的文本理解、文本生成能力,因此在构建数据集时考虑了法律信息抽取、法律咨询问答、法律文档摘要等不同场景或任务。构建数据集的数据主要来自三大部分:一是公开的NLP法律任务数据集;二是来自真实世界的原始法律文本;三是开源的指令微调数据集。

数据构建采用下面3种方法对数据进行重构。

(1)行为塑造

在法律判决三段论中,法官的基本推理过程是:大前提(major premise)是适用的法律,小前提(minor premise)是相关事实,结论(conclusion)是最终判决。即每个案例都可以用法律三段论得出一个明确的结论,形式如下。

· 大前提:适用法律法条。

· 小前提:案件事实。

· 结论:判决结果。

受法律三段论提示(legal syllogism prompting)和自构造(self-construct)的启发,利用GPT-3.5-Turbo模型来对数据按照上面的格式进行改写,完成行为塑造的重构,确保“<输入-输出>”指令对数据的输出是通过法条和案件事实推论得到的。

(2)知识扩展

这类重构方法针对选择题数据集,由于许多与法律相关的考试数据集的输出仅提供选项答案,用GPT-3.5-Turbo模型来扩展输出中的法律知识,以提供更多的推理细节。

(3)思维发展

已有多项研究证明思维链(chain of thought,CoT)能够有效地提高模型的推理能力。为进一步赋予模型法律推理的能力,参考思维链方法设计法律思维链(law-specific chains of thought,LCoT)来要求模型按照法律三段论推理答案。LCoT将按下面的形式转换输入X(LCoT prompt)。

· 在法律三段论中,大前提是适用的法律法规,小前提是案件事实,结论是对案件的法律判断。

· 案件:X。

· 用法律三段论来思考和输出判断。

通过以上3种方法对数据进行重构后,数据集的总体规模约为403 000条,其中指令对数据约为256 000条,指令三元组数据约为39 000条,通用指令数据约为108 000条,表1是LawLLM指令微调数据集的详细统计。

图片

2.3 评测方案

LawBench是一个基于中国法律体系的开源大语言模型综合评估基准(Benchmark),LawBench数据集包括了20个不同的任务,涵盖了记忆、理解、应用3个认知水平。

· 记忆:大语言模型能否记住法律概念、法条、术语等。

· 理解:大语言模型能否理解法律文本中的意义和内涵。

· 应用:大语言模型能否正确利用其知识和推理能力并完成下游的现实法律任务。

LawBench的20个不同任务每项都有500个示例,不同任务的评价指标有一定的差异。表2是Lawbench任务列表。

图片

2.4 实验结果

本次实验除了笔者提出的智慧法律大模型LawLLM,还对比了其他通用大模型以及法律领域大模型,各个模型如下。

· 通用大模型:GPT-3.5-Turbo、Llama2-13 B-Chat、Baichuan-13 B-Chat、Chinese-Alpaca2-13 B。

· 法律领域大模型:LaWGPT、Lawyer- LLaMa、ChatLaw、LexiLaw。

图3是在Lawbench上的Zero-shot、Few-shot评测实验结果,从图3中可以看到,本文的模型LawLLM在Lawbench上的Zero-shot的平均表现超过了所有对比的大模型,均值比具有175×109个参数的GPT-3.5-Turbo高0.19%。LawLLM在Lawbench上的Few-shot的平均表现仅次于GPT-3.5-Turbo,相比其低0.02%。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
图3 在Lawbench上的Zero-shot、Few-shot评测实验结果

2.5 模型Demo服务情况

模型Demo发布后,截至2024年3月底,已有超过两万人次使用中文智慧法律大模型LawLLM,对话交互超过4万次,反响良好。排名位于前三的用户咨询问题分别为民间借贷纠纷类、劳动人事争议类、离婚财产分割类问题,表3是排名位于前三的用户咨询问题对应的部分问题。表4是模型在实际使用过程中的部分对话实例,从表4中可以看出,模型能出色地完成众多法律领域的任务,不限于常规问答,对实际应用更有帮助。但模型也有不足之处,主要体现在模型的多轮对话能力不强,这是由于训练过程中使用的是单轮对话数据,图4所示是模型多轮对话实例。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

![外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传](https://img-home.csdnimg.cn/images/20230724024159.png?origin_url=data%3Aimage%2Fsvg%2Bxml%2C%253C%253Fxml%20version%3D'1.0'%20encoding%3D'UTF-8'%253F%253E%253Csvg%20width%3D'1px'%20height%3D'1px'%20viewBox%3D'0%200%201%201'%20version%3D'1.1'%20xmlns%3D'http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg'%20xmlns%3Axlink%3D'http%3A%2F%2Fwww.w3.org%2F1999%2Fxlink'%253E%253Ctitle%253E%253C%2Ftitle%253E%253Cg%20stroke%3D'none'%20stroke-width%3D'1'%20fill%3D'none'%20fill-rule%3D'evenodd'%20fill-opacity%3D'0'%253E%253Cg%20transform%3D'translate(-249.000000%2C%20-126.000000&pos_id=img-sPNm7MiY-1728541812061)' fill='%23FFFFFF'%3E%3Crect x='249' y='126' width='1' height='1'%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)

图4 模型多轮对话实例

3 法律场景下的长文本信息抽取

3.1 任务介绍

裁判文书原文中通常包括文书基本信息、人物信息、案件信息、判决信息、依据法条等。文书基本信息包含审理法院、文书类型等;人物信息包含公诉机关名称(刑事)、刑事被告信息(刑事)等;案件信息包含案件审理阶段、案由等;判决信息包含裁判日期、本院认为、争议焦点等;依据法条包含法律名称及法律条款。图5所示是裁判文书信息抽取任务示例,左侧为裁判文书原文,右侧为抽取结果。在现实场景下,裁判文书的平均长度为1万字以上,这远远超出大部分中文基座模型的处理长度(4 096字)。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
图5 裁判文书信息抽取任务示例

3.2 实验方案

法律场景下的长文本信息抽取应用主要针对裁判文书,评测集共有320篇裁判文书,文书总长度在0~4 000字、4 000~8 000字、8 000~16 000字、16 000字以上的各有80篇,每篇裁判文书均抽取具体项,共5 760个测试问题,裁判文书信息抽取项的类别、问题ID及对应具体项见表5。裁判文书均来自中国裁判文书网,该网站提供了不同年份、不同法院、不同审理阶段的民事和刑事裁判文书,并不断更新。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

实验对比模型有LawLLM、ChatGLM2-6B-32K、ChatGLM3-6B-32K、GPT-3.5-Turbo-0125。LawLLM是本文提出的中文智慧法律大模型,该模型未在裁判文书信息抽取任务上进行微调,可以处理的上下文长度为4 000字。ChatGLM2-6B经过了1.4 TB中英标识符的预训练与人类偏好对齐训练。ChatGLM3-6B的基础模型采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。ChatGLM2-6B-32K、ChatGLM3-6B-32K分别在ChatGLM2-6B、ChatGLM3-6B的基础上进一步强化了对长文本的理解能力,能够更好地处理多达32 000字长度的上下文。LongBench[25]是一个多任务、中英双语、针对大语言模型长文本理解能力的评测基准,LongBench的测评结果表明,在等量级的开源模型中,ChatGLM2-6B-32K和ChatGLM3-6B-32K在中文长文本处理上有较明显的竞争优势。GPT-3.5-Turbo-0125具备16 000字上下文长度的处理能力。

对预测文本和参考文本分词处理后,基于Rouge-L评价指标计算它们之间的相似度分数,关注预测文本和参考文本之间的重叠程度。

在测试过程中,对于超出模型处理长度能力的文本,从文本中间进行截断,保留前后部分的信息。该设置参考了Liu等的研究,其实验结果表明,这种截断方式对模型性能影响最小。

3.3 实验结果

(1)不同长度文本上的实验结果及分析

表6是裁判文书信息抽取任务在不同长度文本上的总体实验结果,加粗为最佳结果,加下划线为次佳结果。从表6中可以看到,LawLLM的平均结果仅次于175×109个参数、16 000字上下文长度的GPT-3.5-Turbo-0125模型。在不同上下文长度上的效果几乎都超过了32 000字上下文长度的ChatGLM系列,仅在4 000~8 000字长度上比ChatGLM3-6B-32k低0.87%。LawLLM未在裁判文书信息抽取任务上进行微调,且可以处理的上下文长度仅为4 000字,由此可见,其他法律类任务的微调使模型具备了完成新的法律任务的能力,若其长度突破4 000字,可能在裁判文书这类长文本上具备更强的处理能力。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

(2)不同抽取问题上的实验结果及分析

表7是裁判文书信息抽取任务在不同抽取问题上的实验结果,加粗为最佳结果,加下划线为次佳结果。从表7中可以看到,LawLLM在18类问题中,有2项问题取得了最佳的结果,6项问题取得了次佳的结果,这6项均次于GPT-3.5-Turbo-0125模型。LawLLM表现较差的问题是证据目录,在问题4-4上取得最佳结果的模型是ChatGLM3-6B-32K,可能是因为这项问题不仅需要模型有抽取式阅读理解的能力,还需要具备对抽取到的内容总结、归纳的能力,本文构建的指令微调数据集中忽略了这类能力的训练,导致了模型对通用能力的遗忘。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

3.4 未来研究思路

受Transformer结构的限制,大模型在训练阶段直接训练长文本需要消耗大量计算资源,效果往往也欠佳,主要原因如下。

· 模型训练:GPU显存的占用与序列长度的平方成正比,使训练量急剧上升。

· 模型结构:序列越长,模型的Attention越分散,模型越容易忘记前序内容。

· 推理速度:模型序列增长,将大幅度降低模型推理速度。

Huang等研究了基于Transformer结构的大模型处理长文本的方法,包括高效注意力机制、长期记忆、外推位置编码、上下文处理等方法,具体如下。

(1)高效注意力

这类方法致力于实现具有降低计算需求能力的高效注意力机制,甚至实现线性复杂度。注意力机制是Transformer计算瓶颈的核心模块,优化注意力机制的方法在预训练阶段直接增加超参数,从而扩展大模型在推理过程中有效上下文长度的边界。

(2)长期记忆

大模型缺乏显式的记忆机制,仅依靠KV缓存(key-value cache)来存储序列中所有先前Token的表示。这种设计意味着一旦在一个调用中完成了查询(query),Transformer在后续的调用中将不会保留或记起任何先前的状态或序列,除非整个历史记录被逐个Token地重新加载到KV缓存中。为了突破上下文工作记忆的局限性,一些方法旨在设计显式的记忆机制,针对KV缓存进行优化,弥补大模型中缺乏高效和有效的长期记忆的不足。

(3)改进位置编码

通过改进现有位置编码方案的外推性能,提高大模型的长度扩展能力。最初的Transformer架构提出了正弦位置编码(sinusoidal PE,SinPE),通过优化位置编码来扩展上下长度,常见的有外推和内插两种方式。外推将原来的编码方法直接应用到更大的位置上,内插将目标位置等比例放缩到模型支持的位置处。

(4)上下文处理

除了针对Transformer模块的修改方法,有一些方法将现成的大模型与额外的上下文预处理/后处理相结合,将预训练的大模型视为黑盒或灰盒模型,通过对模型进行多次调用来处理超出模型长度限制的上下文。这些方法满足了每次调用时实际输入始终满足最大长度的要求,并通过引入多次调用开销,打破上下文的窗口限制。

考虑到高效注意力机制和长期记忆这两种方法涉及模型的预训练,而预训练过程通常会比微调消耗更多的计算资源和训练时间,未来LawLLM处理法律场景下的长文本信息抽取可以从改进位置编码和上下文处理这两种方法着手做深入研究。

4 结束语

本文的工作对智慧司法有实际的应用价值,除法律咨询场景以外,还考虑到了很多不同的法律任务,应用到实际中可以惠及不同的使用群体,能为实现法律资源的平衡带来更多的可能性,为法律行业带来全新的发展机遇和技术解决方案。本文的训练数据和训练方法可以被适配到任何基座大模型上,研究法律领域的指令微调工作也能被迁移到其他垂直领域,如金融、教育等。目前的工作还有不少可以优化的地方,可以从以下3个方面进行改进。

· 本文训练的中文法律智慧大模型使用的是单轮对话训练,模型没有利用历史对话信息的能力。在实际的应用过程中,尤其是在法律咨询场景下,多轮对话能力可以提升性能,更贴近实际需求。

· 本文的应用部分着重研究裁判文书这类长文本的处理,而案例也是智慧法律应用过程中非常重要的文本。针对这类文本任务,如类案匹配,也有两大难点需要解决,一是案例大多涉及长文本的处理,二是类案匹配任务需要建立一个完整的案例库。

· 在长文本信息处理中,未来将深入研究一些不需要训练就能实现低资源消耗的方法,如改进位置编码、上下文处理等。

那么,如何系统的去学习大模型LLM?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~
在这里插入图片描述

篇幅有限,部分资料如下:
👉LLM大模型学习指南+路线汇总👈

💥大模型入门要点,扫盲必看!
在这里插入图片描述
💥既然要系统的学习大模型,那么学习路线是必不可少的,这份路线能帮助你快速梳理知识,形成自己的体系。
在这里插入图片描述

👉大模型入门实战训练👈

💥光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

👉国内企业大模型落地应用案例👈

💥《中国大模型落地应用案例集》 收录了52个优秀的大模型落地应用案例,这些案例覆盖了金融、医疗、教育、交通、制造等众多领域,无论是对于大模型技术的研究者,还是对于希望了解大模型技术在实际业务中如何应用的业内人士,都具有很高的参考价值。 (文末领取)
在这里插入图片描述
💥《2024大模型行业应用十大典范案例集》 汇集了文化、医药、IT、钢铁、航空、企业服务等行业在大模型应用领域的典范案例。

在这里插入图片描述

👉LLM大模型学习视频👈

💥观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。 (文末领取)
在这里插入图片描述

👉640份大模型行业报告👈

💥包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

👉获取方式:
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值