- 博客(292)
- 收藏
- 关注
原创 模型参数量计算与效率分析
介绍如何计算基于 Transformer 架构的大语言模型的参数数量,并给出训练模型时所需要的运算量、训练时间和显存开销估计,方便可以估算训练所需要的时间、GPU 显存等计算资源开销。 由于当前主流的大模型普遍采用因果解码器架构,因此下面以 LLaMALLaMALLaMA 模型为范例,深入剖析其参数数量计算方式。对于其他模型,其参数量计算算法可参照此方法计算。首先,假设词表大小为 VVV,模型包含 LLL 层解码器,中间状态的维度大小为 HHH,前馈网络层的中间状态维度大小为 H′H'H′。我
2024-07-22 17:15:09 87
原创 大模型可扩展的训练技术
对于每个 GPU,在模型传播到某一层时,其他层的模型和优化器参数并不参数计算,这导致了严重的显存冗余现象,同时也限制了每个 GPU 可以支持的前向传播数据量,降低了训练效率。以上图为例,1 号 GPU 在前向传播后需要等待 2 号 GPU反向传播的结果才能进行梯度传播,因此整个流程是“1 号前向-2 号前向-2 号反向-1 号反向”的串行操作,大大降低了 GPU 的利用率。在流水线并行中使用了梯度累积后,1 号卡前向传播完第一个批次后,便可以不用等待,继续传播第二个和后续的批次,从而提高了流水线的效率。
2024-07-22 15:17:06 6
原创 ChatRule: Mining Logical Rules with Large Language Models for Knowledge Graph Reasoning
逻辑规则对于揭示关系之间的逻辑联系至关重要,这可以提高推理性能并在知识图谱(KG)上提供可解释的结果。尽管人们已经做出了许多努力来挖掘知识图谱上有意义的逻辑规则,但现有的方法存在对规则空间的计算密集型搜索以及缺乏大规模知识图谱的可扩展性的问题。此外,他们经常忽略关系的语义,而这对于揭示逻辑联系至关重要。近年来,大型语言模型(LLM)由于其新兴能力和泛化性,在自然语言处理和各种应用领域表现出了令人印象深刻的性能。
2024-07-20 20:54:04 1336
原创 GOLLIE : ANNOTATION GUIDELINES IMPROVE ZERO-SHOT INFORMATION-EXTRACTION
大型语言模型 (LLM) 与指令调优相结合,在泛化到未见过的任务时取得了重大进展。然而,它们在信息提取(IE)方面不太成功,落后于特定任务模型。通常,IE 任务的特点是复杂的注释指南,这些指南描述任务并向人类提供示例。以前利用此类信息的尝试都失败了,即使是最大的模型也是如此,因为它们无法遵循开箱即用的指南。在本文中,我们提出了 GoLLIE(IE 大型语言模型指南),该模型能够通过微调以符合注释指南,从而改进未见过的 IE 任务的零样本结果。
2024-07-20 20:35:33 732
原创 大模型预训练优化参数设置
在大模型预训练中,通常将批次大小(Batch Size)设置为较大的数值,例如1M 到 4M 个词元,从而提高训练的稳定性和吞吐量。在模型训练的初始阶段,由于参数是随机初始化的,梯度通常也比较大,因此需要使用较小的学习率使得训练较为稳定。此外,谷歌的研究者提出了 Adafactor优化器,它是 Adam 优化器的一个变种,通过引入了特殊设计可以在训练过程中节省显存,被用于 PaLM 和 T5 等大语言模型的训练。常见的衰减策略有线性衰减,余弦衰减,平方根倒数衰减,它们的学习率变化如下图所示。
2024-07-18 20:48:25 887
原创 模型预训练任务
然而,在模型预训练阶段的损失函数中,由于并未将所有词元的损失都纳入计算,当使用相同规模的数据集进行训练时,采用前缀语言建模训练的模型在性能上通常会稍逊于使用标准语言建模任务训练的模型。混合去噪器,又称 UL2 损失,通过将语言建模和去噪自编码的目标均视为不同类型的去噪任务,对于预训练任务进行了统一建模。除了传统的语言建模任务外,去噪自编码任务是另一种常见的语言模型预训练任务,广泛应用于 BERT、T5 等预训练语言模型中。,语言建模任务的目标定义为词元的预测任务:基于序列中当前位置之前的词元序列。
2024-07-18 20:39:15 533
原创 知识图谱查询语言
实际上,BGP查询相当于一个带有变量的查询图,查询过程是在数据图中寻找与查询图映射匹配的所有子图,等价于图论中的子图同构(Subgraph Isomorphism)或子图同态 (Subgraph Homomorphism)问题,所以也将BGP查询称为子图匹配查询。SPARQL 是W3C 制定的RDF 图数据的标准查询语言。说明:MATCH关键字指明需要匹配的模式,这里将节点分为了程序员和项目两类,p作为查询变量会依次绑定到每个类型为Programmer的节点,RETURN关键字返回变量p的值作为查询结果。
2024-07-17 20:54:48 91
原创 知识图谱数据模型
例如在下图中,引入节点ex:participate代表三元组(ex:zhangsan,参加,ex:graphdb),该节点通过RDF内置 属性rdf:subject、rdf:predicate和rdf:object分别与代表的三元组的主语、 谓语和宾语建立起联系,这样三元组(ex:participate,权重,0.4)就实现了为原三元组增加边属性的效果。上图的每个节点和每条边均有id。遵照属性图的要素,节点4的出边集合为{边10,边11},入边集合为{边8},属性集合为{姓名=“王五”,年龄=32};
2024-07-17 20:28:35 577
原创 GPT-4和ChatGPT的高级技巧---微调
微调除了文中提到的确保模型生成内容更符合目标领域的特定语言模式、词汇和语气,还有一个优势:你可以通过微调缩短每一次提示中重复的指令或提示词以节省成本或降低延迟,模型会记住通过微调获得的内置指令。开发人员可以为应用程序选择最合适的模型:较小的模型(ada和babbage)可能在简单任务或资源有限的应用程序中更快且更具成本效益,较大的模型 curie 和davinci)则提供了更强的语言处理和生成能力,从而适用于需要更高准确性的复杂任务。需要强调的是,微调后的模型是新模型它位于OpenAl的服务器上。
2024-07-15 20:06:33 452
原创 GPT-4和ChatGPT的高级技巧---提示工程
在深入研究提示工程之前,让我们简要回顾聊天模型的chat_completion 函数,因为本节将经常用到它。为了使代码更加紧凑,我们将该函数定义如下: 该函数接收提示词并在终端中显示补全结果。model和temperature是两个可选特征,分别被默认设置为gpt-4和0。为了说明提示工程的原理,我们将再次使用示例文本“As Descartes said,I think therefore”(正如笛卡儿所说,我思故)。如果将此文本输入GPT-4 那么模型自然会通过迭代式地添加最可能出现的标
2024-07-15 19:38:58 201
原创 知识图谱数据库基本知识
随着知识图谱规模的日益增长,数据管理愈加重要。一方面,以文件形式保存的知识图谱显然无法满足用户的查询、检索、推理、分析及各种应用需求;另一方面,传统数据库的关系模型与知识图谱的图模型之间存在显著差异,关系数据库无法有效地管理大规模知识图谱数据。为了更好地进行三元组数据的存储,语义万维网领域发展出专门存储RDF数据的三元组库;数据库领域发展出用于管理属性图的图数据库。虽然目前没有一种数据库系统被公认为具有主导地位的知识图谱数据库,但可以预见,随着三元组库和图数据库的相互融合发展,知识图谱的存储和数据管
2024-07-13 20:54:32 233
原创 开源工具实践:基于Protégé的本体知识建模
本节使用Protégé演示如何进行知识建模。本实践相关工具、实验数据及操作说明由OpenKG提供,地址为http:/openkg.cn。Protégé软件是斯坦福大学医学院生物信息研究中心基于Java语言开发的本体编辑和本体开发工具,也是基于知识的编辑器,属于开放源代码软件。该软件主要用于语义网中本体的构建,是语义网中本体构建的核心开发工具,本书采用的版本为5.2.0版本。Protégé有以下特点:Protégé是一组自由开源的工具软件,用于构建域模型与基于知识的本体化应用程序。
2024-07-13 20:10:14 45
原创 使用GPT-4和ChatGPT构建应用项目
LLM已被证明在总结文本方面表现出色。在大多数情况下,LLM能够提取文本的核心思想并重新表达,使生成的摘要流畅且清晰。文本摘要在许多情况下很有用,举例如下。媒体监测:快速了解重要信息,避免信息过载。趋势观察:生成技术新闻的摘要或对学术论文进行分组并生成有用的摘要。客户支持:生成文档概述,避免客户被大量的信息所淹没。电子邮件浏览:突出显示最重要的信息,并防止电子邮件过载。在本项目中,我们将为YouTube视频生成摘要。你可能会感到惊讶:如何将视频提供给GPT-4或ChatGPT呢?
2024-07-11 11:09:57 1917 1
原创 使用 GPT-4 和 ChatGPT 构建应用程序
要开发基于LLM的应用程序,核心是将LLM与OpenAI API集成。这需要开发人员仔细管理API密钥,考虑数据安全和数据隐私,并降低集成LLM的服务受特定攻击的风险。你必须拥有一个API密钥才能使用OpenAl服务。由于如何管理API密钥将影响应用程序设计,因此这是一个需要从一开始就关注的话题。本文将展示如何管理用于LLM驱动型应用程序开发的API密钥。我们无法详细介绍每一种API密钥管理方案,因为它们与应用程序的类型密切相关:它是一个独立的解决方案吗?是Chrome插件还是Web服务器?
2024-07-11 09:43:20 740
原创 TECHGPT-2.0: A LARGE LANGUAGE MODEL PROJECT TO SOLVE THE TASK OF KNOWLEDGE GRAPH CONSTRUCTION
大型语言模型在不同的自然语言处理任务中表现出强大的性能。本报告介绍了TechGPT-2.0项目,该项目旨在增强大型语言模型在知识图谱构建任务中的能力,包括NLP应用中的命名实体识别(NER)和关系三重提取(RTE)任务。此外,它还可以作为中国开源模型社区研究的法学硕士。我们提供了两个7B大型语言模型权重和一个专门用于处理冗长文本的QLoRA权重。值得注意的是,TechGPT-2.0是在华为Ascend服务器上进行培训的。
2024-07-10 21:08:43 1114
原创 基于 BERT 的非结构化领域文本知识抽取
随着知识图谱技术的发展和商业应用的普及,从各类非结构化领域文本中提取出知识图谱实体及关系数据的需求日益增加。这使得针对领域文本的自动化知识抽取颇有意义。本文提出了一种基于 BERT 的知识抽取方法,用于从非结构化的特定领域文本(例如保险行业的保险条款)中自动抽取知识点,以达到在构建知识图谱的过程中节约人力的目的。
2024-07-10 20:42:59 876
原创 新型模型架构(参数化状态空间模型、状态空间模型变种)
然而,Transformer 的自注意力机制在计算每个词元时都需要利用到序列中所有词元的信息,这导致计算和存储复杂度随输入序列长度的平方级别增长。Mamba是一种状态空间模型的变种,主要思想是在状态空间模型的状态更新中引入了基于当前输入的信息选择(Selection)机制,来确定当前时刻状态如何从前一时刻状态以及当前输入中提取信息,从而提升其在语言建模上的性能。在循环计算的时候,状态空间模型不需要和 Transformer 一样对前面所有时刻的状态进行访问,而是仅仅需要前一个时刻的状态。
2024-07-08 14:54:17 67
原创 长上下文模型(扩展位置编码、调整上下文窗口、长文本数据、)
在实际应用中,大语言模型对于长文本数据的处理需求日益凸显,尤其在长文档分析、多轮对话、故事创作等场景下。在这些情况下,模型需要处理的文本的长度常常超出预定义上下文窗口大小。例如,LLaMA-2 的上下文窗口限制为 4,096个词元。为了支持长文本处理,多家机构均已推出面向具有超长上下文窗口的大语言模型或 API。例如,OpenAI 发布了支持 128K 上下文窗口的 GPT-4 Turbo,而Anthropic 则推出了具有 200K 上下文窗口的 Claude-2.1。给定一个预训练后的大语言模型
2024-07-08 14:23:40 135
原创 知识图谱嵌入
如上所述,知识图谱的嵌入方法可以提高计算的效率,增加下游应用的多样性,并可以作为预训练,为下游模型提供语义支持,所以对其展开的研究具有很大的应用价值和前景。类似于词向量,经典的知识图谱嵌入模型TransE的设计思想就是,如果一个三元组(hr,t)成立,那么它们需要符合h+rt关系,例如:Vec(Rome)+vec(is-capital-of)≈vec(ltaly)所以,在知识图谱嵌入的学习过程中,不同的模型从不同的角度把相应的语义信息嵌入知识图谱的向量表示中,如下图所示。S(ga)是被设计出来的得分函数。
2024-07-06 10:45:17 340
原创 知识图谱的向量表示方法
在训练好的词向量中可以发现一些词的词向量在连续空间中的一些关系,如下图所示。通过两对在语义上关系相同的词向量相减可以得出相近的结果,可以猜想出Roma和 ltaly的词向量通过简单的相减运算,得到了一种类似is-capital-of关系的连续向量,而这种关系的向量可以近似地平移到其他具有类似关系的两个词向量之间。具体的方法是先收集所有文本的可见词汇并组成一个词典,再对所有词进行编号,对于每个文本,可以使用一个表示每个词出现次数的向量来表示,该向量的每一个维度的数字表示该维度所指代的词在该文本中出现的次数。
2024-07-06 09:59:33 71
原创 大语言模型融合知识图谱的问答系统研究
问答系统(Question Answering,QA)能够自动回答用户提出的自然语言问题,是信息检索和自然语言处理的交叉研究方向,将知识图谱(Knowledge Graph,KG)与问答系统融合,正确理解用户语义是一大挑战。虽然知识图谱问答能够通过对问题进行分析理解,最终获取答案,但面对自然语言的灵活性与模糊性,如何处理复杂问题的语义信息、如何提高复杂推理问答的高效性仍是研究难点。
2024-07-04 19:42:27 866
原创 FOODGPT: A LARGE LANGUAGE MODEL IN FOOD TESTING DOMAIN WITH INCREMENTAL PRE-TRAINING AND KNOW...
目前,特定领域的大型语言模型的构建是通过在基础模型上进行微调来完成的。有些模型还包含知识库,无需预先训练。这是因为基础模型在预训练过程中已经包含了特定领域的知识。我们构建了一个用于食品测试的大语言模型。与上述方法不同,该域中的大量数据以域标准文档的扫描格式存在。此外,还存在大量未经训练的结构化知识。因此,我们引入了增量预训练步骤,将这些知识注入到大语言模型中。在本文中,我们提出了一种在增量预训练中处理结构化知识和扫描文档的方法。
2024-07-04 17:15:13 1052
原创 常见开放域知迟图谱的知迟表示方法
ConceptNets5中的关系包含21个预定义的、多语言通用的关系,如lsA、UsedFor等,以及从自然语言文本中抽取的更加接近自然语言描述的非形式化的关系,如on top of,caused by等。其中,可以是一个item,如Q49,或者一个Property,如P234。这个Object的一个type是“/government/us_president”,并有一个称为“/government/us_.president/presidency_.number'"的Property,其数值是“44”。
2024-07-02 10:14:31 35
原创 知识图谱查询语言的表示
RDFa通过引入名字空间的方法,在已有的标签中加入RDFa相应的属性,以便解析支持RDFa技术的浏览器或者搜索引擎,从而达到优化的目的。微数据是给那些已经在页面上可见的数据施加额外的语义,当HTML的词汇不够用时,使用微数据可以取得较好的效果。RDF 支持类似数据库的查询语言,叫作SPARQL,它提供了查询RDF 数据的标准语法、处理SPARQL查询的规则以及结果返回形式。这个SPARQL 查询指的是查询所有选修CS328课程的学生,PREFIX部分进行命名空间的声明,使得下面查询的书写更为简洁。
2024-07-02 09:37:20 85
原创 其他OpenAI API和功能
有两个内容审核模型可供选择,默认模型是text-moderation-latest,它会随时间自动更新,以确保你始终使用最准确的模型。尽管“猫在房子周围追着老鼠跑“和“在房子周围,老鼠被猫追着跑“具有不同的语法结构,但它们的大体意思相同,因此具有相似的嵌入表示。而句子“航天员在轨修理了宇宙飞船与前面的句子(关于猫和老鼠的句子)无关,并且讨论了完全不同的主题(航天员和宇宙飞船),因此它的嵌入表示明显不同。请注意,为清晰起见,本例将嵌入显示为具有两个维度,但实际上,嵌入通常具有更高的维度,比如512维。
2024-07-01 10:18:35 334
原创 openai的其他文本补全模型
由于gpt-3.5-turbo模 型也可用于单轮文本补全任务,并且对于这类任务,两个模型的准确性相当,因此我们建议使用gpt-3.5-turbo模型(除非你需要插入、后缀等特殊功能,或者在特定的任务上text-davinci-003模型的性能更佳)。尽管无论是在价格方面还是在性能方面,GPT-3.5 Turbo 模型通常都是最佳选择,但是不妨了解如何使用文本补全模型,特别是在微调等用例中,GPT-3文本补全模型是唯一的选择。然而,在复杂的推理场景中,gpt-4模型远优于任何先前的模型。
2024-07-01 10:03:47 260
原创 Retrieve-Rewrite-Answer: A KG-to-Text Enhanced LLMs Framework for Knowledge Graph Question Answering
尽管大型语言模型(LLMs)在知识密集型任务中表现出色,但在记忆所有世界知识尤其是长尾知识方面仍有局限性。本文研究了知识图谱问题解答(KGQA)任务中需要丰富世界知识的知识增强语言模型方法。现有工作表明,检索知识图谱知识来增强语言模型的提示功能,可以显著提高语言模型在知识图谱问题解答中的性能。然而,这些方法缺乏对幼稚园知识的良好口头表述,即忽略了幼稚园表述与文本表述之间的差距。为此,我们提出了一种对答案敏感的 "KG-to-Text "方法,它可以将 KG 知识转化为对 KGQA 最有参考价值的文本化语句。
2024-06-29 11:07:48 937
原创 Query Rewriting for Retrieval-Augmented Large Language Models
大语言模型(LLM)在检索--然后阅读(retrieve--then--read)管道中发挥着强大的黑盒阅读器的作用,在知识密集型任务中取得了显著进展。这项工作从查询重写的角度出发,为检索增强型 LLMs 引入了一个新的框架,即重写-检索-阅读(Rewrite-RetrieveRead),而不是以前的检索-重写-阅读(Retrieve-then-read)。与之前侧重于调整检索器或阅读器的研究不同,我们的方法关注的是搜索查询本身的调整,因为输入文本与检索所需的知识之间不可避免地存在差距。
2024-06-29 10:34:01 1037
原创 在预训练语言模型主流架构
在预训练语言模型时代,自然语言处理领域广泛采用了预训练 + 微调的范式,并诞生了以 BERT 为代表的编码器(Encoder-only)架构、以 GPT 为代表的解码器(Decoder-only)架构和以 T5 为代表的编码器-解码器(Encoder-decoder)架构的大规模预训练语言模型。基于编码器-解码器设计的预训练语言模型(诸如 T5 等)在众多自然语言理解与生成任务中展现出了优异的性能,但是目前只有如 FLAN-T5 等少数大语言模型是基于编码器-解码器架构构建而成的。
2024-06-28 15:55:48 189
原创 Transformer 模型的详细配置---归一化、位置、激活函数和注意力机制
大语言模型的预训练过程中经常会出现不稳定的问题。为了应对这一问题,深度学习方法通常会采用特定的归一化策略来加强神经网络训练过程的稳定性。原始的 Transformer 模型主要使用了层归一化方法(Layer Normalization, LN)。随着研究工作的不断深入,基于层归一化的改进技术不断涌现,例如均方根层归一化(Root Mean Square Layer Normalization, RMSNorm)和 DeepNorm,这些新技术已经在一些大语言模型中得到应用。 LayerNorm
2024-06-28 15:38:40 633
原创 互联网时代的语义网知识表示框架---OWL和OWL2 Fragments
如果一个属性被声明为传递,则由 a exp:ancestor b和bexp:ancestor c可以推出 a exp:ancestor c.例如 exp:小明exp:ancestor exp:小林: exp:小林exp:ancestor exp:小志,根据上述声明,可以推出exp:小明exp:ancestor exp:小志。例如,exp:ancestor owl:inverseOf exp:descendant 指 的 是 exp:ancestor 和exp:descendant是互逆的。
2024-06-26 19:12:47 51
原创 深入了解 GPT-4 和 ChatGPT 的 API---使用 OpenAI Python 库
在前面的例子中,我们使用了最少数量的参数,即用于预测的 LLM 和输入消息。在 OpenAI API 调用结果需要由代码的其余部分处理时,这个功能特别有用:你可以使用函数定义将自然语言转换为 API 调用或数据库查询,从文本中提取结构化数据,并通过调用外部工具来创建聊天机器人,而无须创建复杂的提示词以确保模型以特定的格式回答可以由代码解析的问题。如果将参数 n 设置为大于 1,那么你会发现 prompt_tokens 的值不会改变,但 completion_tokens 的值将大致变为原来的 n 倍。
2024-06-26 15:48:17 1162
原创 深入了解 GPT-4 和 ChatGPT 的 API---OpenAI Playground
掌握GPT-4 和 ChatGPT 的 API 的使用方法,以便有效地将它们集成到 Python 应用程序中。首先,需要了解 OpenAI Playground。这将使你在编写代码之前更好地了解模型。接着,需要学习 OpenAI Python 库。这部分内容包括登录信息和⼀个简单的 Hello World 示例。然后,需要学习创建和发送 API 请求的过程,并了解如何处理 API 响应。这将确保你知道如何解释这些 API 返回的数据。最后,还会介绍诸如安全最佳实践和成本管理等考虑因素。随着学习的深入
2024-06-24 21:05:59 1503
原创 使用插件和微调优化 GPT 模型
自 2012 年起,Be My Eyes 已通过技术为数百万视障人士,提供了帮助它的应用程序是志愿者与需要帮助的视障人士之间的纽带,使视障人士在日常生活中得到帮助,比如识别产品或在机场导航。只需在应用程序中点击⼀次,需要帮助的视障人士即可联系到⼀位志愿者,后者通过视频和⻨克风提供帮助。GPT-4 的多模态能力使得它能够处理文本和图像。Be My Eyes 开始基于 GPT-4 开发新的虚拟志愿者。这个虚拟志愿者旨在达到与⼈类志愿者相当的理解水平和帮助能力。Be My Eyes 的首席执行官 Mich
2024-06-24 19:45:31 906
原创 GPT 模型简史:从 GPT-1 到 GPT-4
2018 年年中,就在 Transformer 架构诞生⼀年后,OpenAI 发表了⼀篇题为“Improving Language Understanding by Generative Pre-Training”的论文,作者是 Alec Radford 等⼈。这篇论文介绍了 GPT,也被称为 GPT-1。在 GPT-1 出现之前,构建高性能 NLP 神经网络的常用方法是利用监督学习。这种学习技术使用大量的手动标记数据。以情感分析任务为例,目标是对给定的文本进行分类,判断其情感是积极的还是消极的。
2024-06-21 19:59:38 1741 1
原创 初识 GPT-4 和 ChatGPT
作为 LLM,GPT-4 和 ChatGPT 是 NLP 领域中最新的模型类型,NLP 是机器学习和⼈⼯智能的⼀个子领域。在深⼊研究 GPT-4 和 ChatGPT 之前,有必要了解 NLP 及其相关领域。AI 有不同的定义,但其中⼀个定义或多或少已成为共识,即 AI 是⼀类计算机系统,它能够执行通常需要⼈类智能才能完成的任务。根据这个定义,许多算法可以被归为 AI 算法,比如导航应用程序所用的交通预测算法或策略类视频游戏所用的基于规则的系统。从表面上看,在这些示例中,计算机似乎需要智能才能完成相关任务。
2024-06-21 17:29:22 1927 1
原创 互联网时代的语义网知识表示框架---RDF和RDFS
在RDF中,知识总是以三元组的形式出现。每一份知识可以被分解为如下形式:(subject,predicate,object)。例如,IBM邀请Jeff Pan作为讲者,演讲主题是知识图谱”可以写成以下RDF三元组:(BMTalk,speaker,.Jeff),(IBM-Talk,theme,KG)。RDF中的主语是一个个体(Individual),个体是类的实例。RDF中的谓语是一个属性。属性可以连接两个个体,或者连接一个个体和一个数据类型的实例。
2024-06-19 09:46:10 183
原创 人工智能早期的知识表示方法
20世纪90年代,MITAI实验室的R.Davis定义了知识表示的五大用途或特点:客观事物的机器标示(A KR is a Surrogate),即知识表示首先需要定义客观实体的机器指代或指称。一组本体约定和概念模型(A KR is a Set of Ontological Commitments),即知识表示还需要定义用于描述客观事物的概念和类别体系。
2024-06-19 08:54:46 140
原创 知识图谱的相关技术
知识图谱是交叉领域,涉及的相关领域包括人工智能、数据库、自然语言处理、机器学习、分布式系统等。下面分别从数据库系统、智能问答、机器推理、推荐系统、区块链与去中心化等角度介绍知识图谱有关的相关技术进展。 随着知识图谱规模的日益增长,知识图谱数据管理问题愈加突出。近年来,知识图谱和数据库领域均认识到大规模知识图谱数据管理任务的紧迫性。由于传统关系数据库无法有效适应知识图谱的图数据模型,知识图谱领域形成了RDF数据的三元组库(Triple Store),数据库领域开发了管理属性图的图数据库(Grap
2024-06-18 09:23:11 174
原创 知识图谱的技术流程
以关系抽取为例,典型的关系抽取方法可以分为基于特征模板的方法、基于核函数的监督学习方法、基于远程监督的方法和基于深度学习的监督或远程监督方法,如简单CNN、MP—CNN、MWK—CNN、PCNN、PCNN+ Att 和MIMLCNN 等。事件是一种复合的实体。一般流程为:首先确定知识表示模型,然后根据数据来源选择不同的知识获取手段导入知识,接着综合利用知识推理、知识融合、知识挖掘等技术对构建的知识图谱进行质量提升,最后根据场景需求设计不同的知识访问与呈现方法,如语义搜索、问答交互、图谱可视化分析等。
2024-06-18 08:28:39 108
二级数据库技术.zip
2024-06-18
HBase总结.xmind
2024-06-18
MySQL索引.xmind
2024-06-18
Python安装第二步.png
2024-06-18
Python安装第一步.png
2024-06-18
Python安装测试.png
2024-06-18
pycharm安装教程.docx
2024-06-18
《1研究生必读→如何获得全文文献》 《1研究生必读→如何积极的进行交流》 《1研究生必读→如何选课和学习》
2024-06-14
Langchain-Chatchat是一个利用语言链技术构建的聊天机器人项目
2024-06-06
教你写出完美论文,为您的论文进入美国SCI导航,写学术论文的技巧,Abstract写作方法,阐释而渔–谈科学研究与学术论文撰写等
2024-06-04
外文投稿常用语’, ‘SCI投稿技巧’, ‘答复审稿人的策略和答复信的写作技巧’, '发表论文实用手册’
2024-06-04
论文修改葵花宝典文件和论文修改助手软件程序
2024-06-04
学术文献数据库相关的软件程序
2024-06-04
SCI管理软件,EndNote X8等等
2024-06-04
智能营销数据集,包括dev、HIT-stop-words、samples、train、test、服饰数据
2024-04-20
客服机器人需要的数据集,包括order、ware、user,测试集和开发集
2024-04-20
TCA(迁移成分分析)是迁移学习领域中的一种经典方法,由中国香港科技大学的杨强教授团队提出,并首次在AAAI-09上展示
2024-02-27
DAN(Deep Averaging Network)是一种迁移学习方法,旨在在多个源域和一个目标域之间共享特征表示
2024-02-27
在这个项目中,我们模拟了一个迷宫环境,其中智能体需要学习如何在没有先验知识的情况下,通过试错的方式找到从起点到终点的最佳路径
2024-02-27
D-Q-learning是一个基于深度强化学习项目,旨在利用DNN和Q学习(Q-Learning)算法来解决复杂的决策和控制问题
2024-02-27
(DQN) 是一个结合深度学习和Q-learning的强化学习算法,用于解决具有高维度状态空间的复杂决策问题
2024-02-23
feature-extraction代码
2024-02-13
DCGAN-tensorflow
2024-02-13
大语言模型综合评测报告极客研究中心2023.pdf
2024-01-28
推荐系统基础代码以及其他实操
2024-01-28
2022-Machine-Learning-Specialization-main.zip 吴恩达机器学习ppt
2024-01-28
当前最佳实践用于培训 LLM白手起家
2024-01-18
微调和提示工程的最佳实践 LLM
2024-01-18
python爬虫知识点大纲
2023-12-06
Python办公自动化知识点大纲
2023-12-06
python基础语法大纲
2023-12-06
初学python能够使用到的手册,里面有各种语法格式
2023-12-05
yelp-review-polarity-csv数据集
2023-12-02
fact-retrieval-20231016T061455Z-001数据集
2023-12-02
SST-2-20231016T061428Z-001数据集
2023-12-02
SICK-E-balanced数据集
2023-12-02
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人