【无标题】

image.png

在科技领域,创新始终是推动进步的动力。今天我们要探讨的是一种名为Triplex的模型,它在知识图谱构建方面提供了一种比微软GraphRag更具创新性且成本更低的替代方案。本文将详细介绍这种模型的工作原理、优势以及如何在实际应用中操作和实现。

Sciphi Triplex模型简介

Scihpi Triplex模型,简称triplex,是一种开源大语言模型,专注于从非结构化数据中提取知识图谱。它的名字来源于其能够提取文本中的实体、关系和实体类型。这个模型是基于53.8亿参数的语言模型进行微调,旨在创建高质量的知识图谱。

与微软Graph Rag的对比

成本与性能

Triplex的成本是微软Graph Rag的十分之一,但性能却与GPT-4相当,甚至在某些方面更为高效。微软的Graph Rag虽然功能强大,但资源消耗高,使用成本也较高。而Triplex则通过优化算法和架构设计,提供了高性价比的解决方案。.

image.png

image.png

灵活性与易用性

Triplex模型支持多样且复杂的应用场景,用户可以立即使用R2R Rag引擎和Neo4J进行数据可视化。而在使用微软Graph Rag时,用户需要先将数据转换为Neo4J兼容格式,这增加了操作复杂性。Triplex在这方面提供了更高的灵活性和易用性。

准确性与训练数据

在准确性方面,Triplex模型在知识图谱提取上优于GPT-4。Triplex使用的是开源的Triplex大语言模型,并且可以通过HuggingFace和Ollama运行。此外,用户可以在本地计算机上免费运行Ollama,这大大降低了使用门槛。

实际操作步骤

接下来,我们将详细介绍如何使用Triplex模型从文本中提取知识图谱,并将其存储在数据库中进行可视化。

1. 基础知识介绍

首先,我们需要了解基本的概念。知识图谱构建(Graph Rag)与基本的检索增强生成(Basic Rag)不同,后者是将数据转换为嵌入并存储在向量数据库中。而前者则是从提供的数据中提取实体和关系,并将其存储在知识图谱数据库中。

2. 安装必要的库

在开始操作之前,我们需要安装一些必要的库:

pip install transformers torch

3. 创建Python文件并编写代码

接下来,我们将创建一个名为app.py的文件,并在其中编写代码:

import json
from transformers import AutoModelForCausalLM, AutoTokenizer

def triple_extract(model, tokenizer, text, entities, predicates):
    # 提供输入主题、谓词和宾语
    prompt = f"{text} [{entities}] [{predicates}]"
    tokens = tokenizer.encode(prompt, return_tensors='pt')
    output = model.generate(tokens)
    response = tokenizer.decode(output[0], skip_special_tokens=True)
    return response

model_name = "sci-fi-trix"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

text = "Elon Musk is the founder of SpaceX"
entities = "Person, Organization"
predicates = "founded by"

response = triple_extract(model, tokenizer, text, entities, predicates)
print(response)

4. 运行代码

在终端中运行以下命令:

python app.py

代码将自动下载模型并运行请求,生成的响应将包含提取的实体和关系。

使用OLama进行简化操作

除了上述方法,还可以使用O Lama进行简化操作。首先,下载ollama:

然后运行Sci-Fi XX:

ollama run sciphi/triplex

输入与之前相同的文本和实体类型,模型将返回提取的实体和三元组。

使用R2R进行简化

为了进一步简化整个过程,我们可以使用R2R。sciphi的创建公司还提供了R2R工具,帮助用户构建、扩展和管理面向用户的RAG应用。

1. 安装R2R

pip install r2r

2. 配置文件

创建一个名为local_neo4j_kg的文件,并在其中添加配置:

model_name: sci-fi-trix
providers:
  neo4j:
    uri: bolt://localhost:7687
    user: neo4j
    password: your_password

3. 运行R2R

r2r serve docker --config local_neo4j_kg.yaml

4. 数据导入

准备一个名为data.txt的文件,内容如下:

John is a person that works at Google. Paul is a person that works at Microsoft that collaborates with John.

运行以下命令进行数据导入:

r2r ingest files data.txt

5. 查看知识图谱

运行以下命令查看知识图谱:

r2r inspect knowledge_graph

6. 可视化

打开Neo4J的URL,输入用户名和密码,即可查看知识图谱的关系。

image.png

总结

通过使用sciphi模型,我们可以以更低的成本和更高的效率构建高质量的知识图谱。无论是使用Hugging Face、OLama还是R2R,sciphi都提供了极大的灵活性和易用性。希望本文能为您提供有用的信息,让您在知识图谱构建领域取得更大的进展。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值