论文
文章平均质量分 92
论文合集
pepsi_w
这个作者很懒,什么都没留下…
展开
-
Planarized sentence representation for nested named entity recognition
问题可以通过枚举span的方法来解决嵌套实体,然而目前的模型忽略了span之间的语义依赖关系(23年看见两三篇都是对span之间的关系进行建模的)。IDEA作者提出了一种planarized 句子表征来表示嵌套实体,并使用一个双向二维的递归操作来学习span之间的语义依赖关系。对span之间的语义关系进行建模也算不上太新的idea,而且二维递归网络那里没有很看懂,而且论文的结构我感觉怪怪的,用的符号也怪怪的(是我看太少了?原创 2024-01-03 17:50:51 · 988 阅读 · 1 评论 -
PromptNER: Prompt Locating and Typing for Named Entity Recognition
问题目前将prompt方法应用在ner中主要有两种方法:对枚举的span类型进行预测,或者通过构建特殊的prompt来对实体进行定位。但作者认为这些方法存在以下问题:1)时间开销和计算成本较高;2)需要精确的设计模板,难以在实际场景中应用。IDEA因此作者提出了一种双插槽的prompt模板来分别进行实体定位和分类,模型可以同时处理多个prompt,通过对每个prompt中的插槽进行预测来提取所有的实体。如下图所示,(a)表示根据实体类别构造prompt的方法;原创 2023-12-21 20:32:25 · 1756 阅读 · 1 评论 -
Nested Named Entity Recognition with Span-level Graphs
问题基于span的方法虽然在解决嵌套实体上存在巨大潜力,但存在以下问题:1)难以充分利用span的丰富语义;2)重叠较多的正负样本会降低模型的性能;3)训练集中的嵌套实体,基本上不会存在于测试集中,即模型需要有较强的泛化能力;IDEA因此作者通过利用基于检索的span图来改进span表征,根据n-gram特征连接训练集中的span与实体。讲得很复杂,模型也很复杂,但是效果不怎么样。消融实验最多只有0.5个点的差距,不好评价。而且作者为什么要跟SpERT这个模型做对比?s_%7Bij%7D。原创 2023-12-01 12:32:40 · 246 阅读 · 0 评论 -
kNN-NER: Named Entity Recognition with Nearest Neighbor Search
受到增强式检索方法的启发,作者提出了kNN-NER,通过检索训练集中k个邻居的标签分布来提高模型命名实体识别分类的准确性。该框架能够通过充分利用训练信息来解决样本类别不平衡问题。本文提出的框架是在标签分类上进行处理,整体思想很简单,在训练集中选取相似词的标签情况来调整结果,怎么感觉有点作弊一样?作者也提到,能提升模型的性能是因为“开卷考试比闭卷要简单”!而且通过实验可以看到作者选取的K并不小,也意味着计算量大的问题。原创 2023-11-30 19:29:36 · 200 阅读 · 0 评论 -
Propose-and-Refine: A Two-Stage Set Prediction Network forNested Named Entity Recognition
问题作者认为基于span的模型存在以下问题:1)忽略了span和其他实体短语之间的关系,span的表征往往只有内部的信息,看不见全局的信息,就会导致一些实体被分类错误。(不是很站得住脚哈 因为一般基于span的方法都会加入一些其他信息 比如句子的cls 或者span前后的一些token信息);2)基于span的模型由于存在最长枚举长度的限制,在处理长实体上存在限制。IDEA因此,作者提出了一个用于嵌套实体的两阶段集合预测网络Propose-and-Refine Network(PnRNet),在。原创 2023-11-11 14:34:30 · 128 阅读 · 0 评论 -
Decomposed Meta-Learning for Few-Shot Named Entity Recognition
问题目前基于span的跨度量学习(metric learning)的方法存在一些问题:1)由于是通过枚举来生成span,因此在解码的时候需要额外处理重叠的span;2)non-entites类别的原型通常都是噪声;3)跨域时,最有用的信息就是当前领域有限的样本,之前的方法只将这些样本用于分类的相似性计算。IDEA作者提出分解元学习(decomposed meta-learning)的方法来解决Few-shot ner任务(实体的边界检测和实体的分类)。原创 2023-10-26 20:08:54 · 324 阅读 · 0 评论 -
An Embarrassingly Easy but Strong Baseline for Nested Named Entity Recognition
问题基于span来解决嵌套ner任务的范式,大多都是先对span进行枚举,然后对每个span进行分类,实际就是得到一个分数矩阵,矩阵中每个元素表示一个span(比如矩阵中的n行m列,对应着span(token_n, token_m))。作者认为这种方法忽略了span与sapn之间的空间信息。IDEA在矩阵中,每个span与其周围的span在原句中都是比较接近的,存在一定的空间语义信息。因此作者提出使用CNN来对span之间的空间信息进行建模。原创 2023-10-20 14:15:19 · 322 阅读 · 2 评论 -
SpanProto: A Two-stage Span-based Prototypical Network forFew-shot Named Entity Recognition
问题Few-shot ner之前的方法都是基于对token进行分类,忽略了实体边界的信息,同时大量的负样本(non-entity)也会影响模型的性能。IDEA作者提出了一个span-based的two-stage原型网络(SpanProto)来解决Few-shot ner问题;在span提取阶段,将序列tag转化为一个全局的边界矩阵,使得模型能够注意到准确的边界信息。在分类阶段,对每个实体类别计算原型(prototype)embedding,并利用原型学习在语义空间中调整span的表征。原创 2023-10-14 15:41:37 · 165 阅读 · 0 评论 -
A novel feature integration and entity boundary detection for namedentity recognition in cybersecur
网络安全领域的威胁情报数据大多是非结构化的多源异构文本,难以在短时间内理解。利用知识图谱(KG)能够自动实时的对情报进行分析,其中NER能够识别与网络攻击相关的实体,是KG的关键技术之一。作者认为虽然依存树能够捕获远距离的结构化信息来丰富语义表征,但目前对于这种结构化特征的利用大多都是进行线性堆叠,没有在不同网络之间进行交互;另外,现有的模型对网络安全中复杂实体的边界不敏感。模型的整体结构如下图所示,首先获得word的embedding,使用多个GAT模块充分的在word之间进行交互;原创 2023-10-12 21:24:45 · 78 阅读 · 0 评论 -
SEE-Few: Seed, Expand and Entail for Few-shot Named Entity Recognition
目前few-shot NER方法侧重于使用目标领域的其他数据集进行充分训练后,迁移到同领域下目标数据集,但当目标领域中没有可用数据时,这种方法就会失效。因此作者提出了一个新型的多任务学习框架SEE-Few(seedexpandentail),用于解决源域没有数据的情况。其中seed和expand模块负责提供准确的spans给entail模块,entail模块将sapn分类任务视为文本蕴含任务对spans进行分类。原创 2023-10-09 16:15:19 · 710 阅读 · 0 评论 -
Extract-Select: A Span Selection Framework for Nested Named EntityRecognition with Generative Adver
基于span的方法是将NER看作是一个two-stage任务——span的提取和分类,虽然能够很好的解决嵌套实体的问题,但是该方法存在以下问题:1)误差传递;2)长实体识别困难;3)需要大规模标注数据集。因此作者提出Extract-Select的方法,使用了一种span selection 框架,引入了生成对抗训练,来解决以上问题,能够将不同类别的实体分别进行提取,从而避免误差传递。原创 2023-09-27 21:19:48 · 123 阅读 · 0 评论 -
Deep Span Representations for Named Entity Recognition
问题作者认为,一个好的span表征对于NER任务是非常重要的,而之前的工作都是将第一个或最后一个的表征简单的进行组合后,没有进行充分的交互就送入到实体分类器中进行分类,不利于长实体的识别,并且对于嵌套实体中共享token的情况下,会导致产生的span是相似的。IDEA作者提出了DSpERT模型,该模型包括了一个transformer和一个span transformer(用于span 表征和token表征之间的交互),来获取span的深层表征。原创 2023-09-26 10:22:18 · 250 阅读 · 0 评论 -
A Span-based Multi-Modal Attention Network for joint entity-relationextraction
作者认为当前基于span的关系提取方法都太关注于span内部的语义,忽略了span与span之间以及span与其他模态之间(比如tokens和labels)的交互。因此作者提出了SMAN结构,该结构使用了cloze mechanism(完型机制)来同时提取上下文和span位置的信息,并在关系提取阶段对span和标签进行建模。原创 2023-09-21 11:11:49 · 149 阅读 · 3 评论 -
Span-based Named Entity Recognitionby Generating and Compressing Information
对于information bottleneck (IB) principle信息瓶颈原理,要么使用生成模型,要么使用信息压缩模型来提高在目标任务上的性能,因此作者将这两种模型进行结合来提高模型在NER任务上的表现。对于其中一种IB模型VAE(其实不太懂这个是啥?),将span重构和同义词生成这两个部分整合到一个span-based的NER模型中,用来更新span representation。对于另一种IB模型VIB。原创 2023-07-26 19:43:20 · 353 阅读 · 0 评论 -
S-NER: A Concise and Efficient Span-Based Model for NamedEntity Recognition
NER中的序列标注模型使用条件随机场(CRF)来获取标签之间的依赖性,存在误差传播的问题,即错误的分类标签会导致错误的标签依赖。因此作者提出了S-NER,一个基于span的NER模型,并提出随机负样本的方法来代替传统span-based模型枚举span进行计算,提高模型的效率。这篇论文感觉创新点只在随机抽取负样本来训练模型,作者提到该模型不像序列标注模型那样,会受到前面序列中错误分类所带来的词性错误依赖性, 但是这是所有基于span的模型都有的优势。原创 2023-07-25 16:33:23 · 313 阅读 · 0 评论 -
Fusing Heterogeneous Factors with Triaffine Mechanismfor Nested Named Entity Recognition
使用一个预训练好的模型加上一些简单的结构就能达到比较好的结果,但作者认为如果对一些相关特征进行明确的建模(比如:inside tokens、边界、标签和related span)有利于复杂嵌套的span表征和分类。虽然这些因素在之前的工作中可能被研究过,但目前并没有一个统一的结构来融合所有的因素。并且传统的加法、乘法注意力和biaffine transformation不能同时与多个因素进行交互。因此作者提出triaffine机制。原创 2023-07-18 17:56:39 · 205 阅读 · 0 评论 -
Unified Named Entity Recognition as Word-Word Relation Classification
flatoverlap和d。目前效果最好的模型主要是:span-based和seq2seq,但前者注重于边界的识别,后者可能存在exposure bias。作者对entity words之间的相邻关系进行建模,将NER定义为一个word-word之间的关系分类任务,一共定义三种关系NONE作者将NER问题视为词与词之间的关系, 这样就能灵活的解决discontinueNER的问题,最后在discontinue的数据集上表现更为明显。不过感觉作者构建的网格有点复杂的亚子(不能用其他方式简化一下吗?原创 2023-07-12 10:55:13 · 1230 阅读 · 2 评论 -
A Span-Based Model for Joint Overlapped and DiscontinuousNamed Entity Recognition
超图和基于过渡(transition-based models)的模型,虽然能够灵活的应用于不同的任务,但是这些模型需要手动定义图的节点、边或过渡方法,并且这些模型随着句子中的词来建立图或生成过渡,可能存在误差传播的情况。整体来看,虽然作者提出了一种新的逻辑,提出了基于span的模型来解决disconnected的实体(思路倒是比较靠谱),但文中作者对使用了AGGCN来增加了word 表征进行了着重介绍(我感觉哈),对于fragment的判断反而采用最简单的方法,有点奇奇怪怪的。原创 2023-07-05 15:13:28 · 259 阅读 · 0 评论 -
Boundary Smoothing for Named Entity Recognition
作者认为在命名实体任务中,由于实体的边界标注存在模糊、不一致的情况,比如一些实体中的冠词和修饰词。如下图所示中蓝色框和红色框中的内容都可以被认为是同一个实体,而目前基于span的NER模型,对于边界不正确的预测都认为是完全错误的,但是对于部分实体来说边界的区分并不是很明显,而这种硬标签性的评判就会导致模型受到干扰。作者通过将标记span周围的span分配一定的概率,来减弱模型的过拟合,在多个baseline上都有一定的提升。原创 2023-07-04 10:31:49 · 538 阅读 · 0 评论 -
Locate and Label: A Two-stage Identifier for Nested Named EntityRecognition
span-based方法将实体识别当作span的分类任务来做,存在以下缺陷:1)计算量大,为了尽可能覆盖到所有实体,就会对多个span进行枚举计算;2)忽略了边界信息;3)与实体匹配的那部分span利用率不高,对于不是完全匹配的span会直接进行丢弃;4)长实体识别困难;作者将NER类比与CV中的目标检测问题,提出一个two-stage的结构来解决NER任务。原创 2023-06-27 17:44:25 · 396 阅读 · 0 评论 -
A Sequence-to-Set Network for Nested Named Entity Recognition
将嵌套NER视为span分类任务存在两个缺陷,不仅搜索空间大还缺少了实体之间的交互。这篇论文和上一篇看的论文(PIQN)比较像,作者都差不多,这篇论文更早一点,可以认为PIQN是该方法的改进。从消融实验来看,本文提出的双向匹配loss对模型的性能有较大的提升, 但PIQN并没有继续使用该方法,并且将entity的分配视为一对多的分配问题。并且感觉PIQN的重点在于可学习的query,但本文中的query也是可学习的向量(so,,,PIQN中的这个创新点也不是那么创新?原创 2023-06-25 17:13:09 · 531 阅读 · 0 评论 -
PIQN:Parallel Instance Query Network for Named Entity Recognition
将命名实体识别任务作为阅读理解任务(MRC:machine reading comprehensive)来做,存在3个问题1)一类问题只能提取一种实体,对于句子中的多种实体需要多个类别的问题才行;2)这样提取的不同实体之间是相互独立的,忽略了它们之间的联系;3)问题的构建依赖于外部知识库,不使用于有多种实体类型的场景。将NER问题视为MRC问题来解决,并提出使用全局可学习的实例query。原创 2023-06-19 10:50:31 · 741 阅读 · 2 评论 -
TANL:STRUCTURED PREDICTION AS TRANSLATION BETWEEN AUGMENTED NATURAL LANGUAGES
大多数解决结构性预测的方法都是在预训练模型上对特定的任务进行训练,存在两个局限性:1)判别分类器不能很好地利用预训练模型中对于该任务标签的已知知识。例如,知道person能够写一本书就能轻松的学习到author在句子中的关系。然而,由于辨别模型的目标是分类,往往不会用标签语义进行训练(也就是没有使用标签的words,而是使用一些简写字母来标记实体类型),因此并不会有这种转移能力(也就是并不能get到person和author之间的关系)。2)辨别模型只能用于特定的任务。原创 2023-06-14 17:51:14 · 581 阅读 · 0 评论 -
PURE:A Frustratingly Easy Approach for Entity and Relation Extraction
对于命名实体识别和关系提取,最近的研究要么在这两个任务上使用一个预训练结构,要么通过共享表征来进行多任务学习。作者认为实体模型和关系模型在上下文表征中学到了不同的信息,共享它们的表征会降低性能,因此探索了pipeline模型在该领域上的潜力。结构化预测和多任务学习。1)结构化预测方法将这两项任务放到一个统一的框架中,将原本的两个任务变成一个待解决的全局优化问题,并且在推理的时候使用束搜索或者强化学习来进行联合解码;2)多任务学习部分的模型建立两个模型用于实体识别和关系抽取,通过共享参数来进行优化。原创 2023-06-08 21:54:27 · 830 阅读 · 0 评论 -
Text-to-Table: A New Way of Information Extraction
作者受到任务(用于生成描述给定表格的文本语言)的启发,提出了的新任务,根据给定的文本,来生成用于文本总结和文本挖掘的表格(如下图所示)。例如,体育比赛的得分表可以作为原始输入的总结,可以明显的看出运动员的表现。作者认为与传统的IE(information extraction)方法比,text-to-table任务有以下不同:1)text-to-table能够用于句子级别和文件级别,一般来说文件级的输出会更加复杂。2)用于提取的模式隐含在训练数据中,例如标题。原创 2023-06-01 20:05:13 · 781 阅读 · 0 评论 -
Alignment-Augmented Consistent Translation forMultilingual Open Information Extraction
由于训练数据的缺乏,导致有监督的Open Information Extraction(开放关系抽取)主要局限于英语。(开放信息抽取即将非结构化的数据转化为<对象;关系;对象>这种格式的半结构化元组,这三部分都是从原文种提取的文本短语。该元组可以应用于多个下游任务,比如:问答、机器阅读理解、摘要、模式归纳、知识库建设。并且依赖于人工注释的数据或者特定资源的语言成本太高,使得开发多语言的系统是不太现实的。由于数据集的缺失,开放关系抽取任务在非英语语言上存在局限性。原创 2023-05-21 16:10:28 · 102 阅读 · 0 评论 -
Edited Media Understanding Frames: Reasoning About theIntents and Implications of Visual Disinforma
现有的大多数技术都关注于怎么辨别新闻的真伪,很少有对假新闻背后更深层的原因进行分析,也就是假新闻背后的原因“why”。本文研究了一种新的概念范式,用于将视觉媒体操纵理解为关于意图、情绪反应、对个人带来的影响还有假新闻整体的一个影响的结构化注释。(感觉就是对恶意p图的图片进行各个方面的解释?比如p图的意图,对于图片中人受到的影响以及这张图对整个社会的一个影响。去理解p图背后更深层次的东西)原创 2023-04-23 21:06:18 · 47 阅读 · 0 评论 -
Poly-encoders: architectures and pre-trainingstrategies for fast and accurate multi-sentence scorin
预测句子对之间关系一般有两种方法:cross-encoders(通过自注意力从全局实现编码)Bi-encoder(对输入的context和label分别进行编码),前者由于每次都需要将input和label进行concate后进行编码,因此虽然可以得到更好的效果,但是其速度会很慢。原创 2022-12-20 19:07:11 · 356 阅读 · 0 评论 -
RE2:Simple and Effective Text Matching with Richer Alignment Features
作者认为之前文本匹配模型中序列对齐部分,过于复杂。只有单个inter-sequence alignment层的模型,常会引入外部信息(例如语法特征)作为额外输入,或是使用复杂的对齐机制,或是对对齐后的结果建立大量的后处理层。包含多个inter-sequence alignment层的模型,使用dense net或递归网络进行连接,导致低层的特征可能无法进行充分的传播以及梯度消失的问题。最近的一些工作提出将这些堆叠blocks进行connect 来增强低层特征,并生成比单一对齐模型更好的结果。原创 2022-12-06 15:47:56 · 590 阅读 · 0 评论 -
ESIM:Enhanced LSTM for Natural Language Inference
对于自然语言推理任务,Bowman等人在2015年提出了一个大数据集,大多数工作就开始使用神经网络来对该任务进行训练。但作者认为序列模型的潜力还没有完全被挖掘,因此提出了一个基于chain LSTMs的序列模型,该模型比先前的模型效果都要好,另外融合循环结构后,性能得到进一步提升,特别是在纳入语法信息后达到了最好的结果。自然语言推理(NLI)中一个任务是RTE(recognize textual entailment),就是判断两个句子之间的关系,存在三种情况:矛盾、无关以及蕴含。原创 2022-11-29 17:12:47 · 953 阅读 · 1 评论 -
Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks
BERT和RoBERT模型在进行语义匹配的时候,需要将每个可能的组合都输入到模型中,会带来大量的计算(因为BERT模型对于句子对的输入,使用[SEP]来标记句子间的分隔,然后作为一个句子输入模型)。比如在10000个句子中找到与每个句子最相似的句子对,需要进行5千万次运算,大约65个小时。因此,BERT就不太适合做语义相似查询和一些无监督的任务。解决聚类和语义匹配的常见方法是将每个句子map到一个向量空间,使得语义相似的句子靠得更近。原创 2022-11-22 11:23:20 · 1306 阅读 · 2 评论 -
HTCInfoMax: A Global Model for Hierarchical Text Classification viaInformation Maximization
本文主要是通过引入信息最大化来解决HiAGM(应该是对于HiAGM-LA)存在的两个限制。问题:HiAGM存在两个问题:1)对每个样本都使用相同的标签层次信息,这样就不能区分与特定文本样本有关和无关的标签。尽管HiAGM-LA能够通过注意力权重隐含地来让每个样本和与其对应的标签联系起来,但仍然存在不相关和噪音信息。2)HiAGM-LA中产生的label embedding没有统计约束(这是个啥?),然而这种统计约束在之前的论文中被证明是非常有效的。IDEA:引入信息最大化。原创 2022-11-04 12:17:13 · 457 阅读 · 0 评论 -
Incorporating Hierarchy into Text Encoder: a Contrastive LearningApproach for Hierarchical Text Clas
作为多标签分类的一个子任务,层次文本面临的问题是 标签是具有层次结构的,因此如何对一个大规模,不平衡并且具有结构性的层次标签进行建模是该问题的关键。对于HTC问题,目前最好的模型是将文本和层次标签分别进行编码并在分类前合并为一个混合表征,如下图a部分所示。这种方法主要是将文本和结构进行充分的交互,虽然对于分类任务是有效的,但由于对于所有文本输入,标签的层次结构都是一样的,graph encoder对于任何文本输入,都会提供相同的表征。所以这种文本和固定的层次表征之间的交互,是比较麻烦并且低效的。原创 2022-10-20 20:14:45 · 686 阅读 · 0 评论 -
Hierarchy-Aware Global Model for Hierarchical Text Classification
本文将层次结构视为一个有向图,使用层次敏感的结构编码器(structure encoders)来对标签间的依赖关系进行建模。并基于该编码器,提出了一个端到端的分层感知全局模型(HiAGM),及其两个变体:HiAGM-LA和HiAGM-TP。HiAGM-LA通过层次结构编码器学习层次敏感的label embedding,并对label-aware的文本特征进行归纳融合,而HiAGM-TP则直接将文本特征送入到层次编码器。原创 2022-10-27 19:53:07 · 1379 阅读 · 0 评论 -
Efficient Strategies for Hierarchical Text Classification:External Knowledge and Auxiliary Tasks
在层次文本分类( Hierarchical Text Classification HTC)中,大多数研究都关注于提出新颖的模型结构,但我们偏向于找到一种高效的方法去增强baseline。首先将层次文本分类任务视为seq2seq问题,然后对它进行一个辅助性地自顶向下的分类任务,即从外部字典中找到所有层次类别中的文本定义,并将其映射到词向量空间作。将类别定义的embedding作为额外输入来对下一层进行预测,并使用一个修改后的束搜索。我们提出的这个方法,比以前那些方法表现更好,同时参数量更少。原创 2022-10-14 20:05:27 · 251 阅读 · 0 评论 -
Concept-Based Label Embedding via Dynamic Routingfor Hierarchical Text Classification
对于Hierarchical Text Classification(HTC),即将文本在一个分类层次中进行分类的问题。现有的大多数方法都集中在对文本的建模上,最近有学者尝试通过外部字典来对类的表示进行建模,但类之间共享的概念,在之前的工作中被忽略了。作者在本文中提出了一种新的label embedding,该方法能够明确的表示概念,并为层次文本分类问题简历类之间的共享机制。1)先前的工作中,大多集中于对文本进行建模,对标签使用one-hot来进行表示。实际上,这种编码方式没有携带任何语义信息。原创 2022-10-11 21:05:35 · 367 阅读 · 0 评论 -
BorderDet:Border Feature for Dense ObjectDetection
密集物体检测依赖于滑动窗口,在图像的规则网格上预测物体,使用点的特征图来生成预测边界框,但由于边界信息不明确导致无法进行准确定位。本文提出了“Border-Align”的操作来从边界点中提取特征来增强点特征。基于该操作设计了一种新型的目标检测网络BorderDet,能够准确的利用边界信息来实现更强大的分类以及更准确的定位。滑动窗口目标检测使用单点特征来进行目标检测是非常方便的,因为其没有额外的特征提取。然而点特征包括的信息不足以代表完整的实例,并且缺乏物体的边界信息。原创 2022-09-30 16:13:17 · 810 阅读 · 0 评论 -
MLP-Mixer: An all-MLP Architecture for Vision
用于视觉的全 MLP 架构原创 2022-09-14 09:59:11 · 1665 阅读 · 0 评论 -
ATTENTIVE LAYER SEPARATION FOR OBJECT CLASSIFICATION AND OBJECT LOCALIZATION IN OBJECT DETECTION
目标检测主要包括目标定位和目标分类两个部分,之前基于深度学习的目标检测是通过同一网络生成的feature map来实现。但目标分类主要是通过包括目标那部分的feature map,而目标检测则需要整个区域的feature map。作者提出一种新的目标检测网络,来实现这两个不同的任务。该模型主要包括attention network(产生不同任务的feature map)和分离层(分别判断两个任务)。原创 2022-09-08 21:47:33 · 670 阅读 · 0 评论