Llama Index中的属性图索引:从现有属性图存储创建索引
在现代数据科学和人工智能领域,属性图(Property Graph)已成为处理复杂信息的重要工具。属性图通过结构化的方式表示实体及其关系,使得信息的检索和理解变得更加高效。本文将深入探讨Llama Index中的PropertyGraphIndex
类的from_existing
方法,帮助程序员全面理解其工作原理及实际应用。
前置知识
在开始之前,确保你具备以下基础知识:
- Python基础:熟悉Python编程。
- OpenAI API密钥:你需要一个OpenAI API密钥来使用
OpenAI
模型。 - Llama Index:使用
pip install llama-index
安装Llama Index库。
环境设置
首先,让我们通过安装所需的包并配置OpenAI API密钥来设置环境。
# 安装Llama Index
%pip install llama-index
# 设置OpenAI API密钥
import os
os.environ["OPENAI_API_KEY"] = "sk-..."
# 配置日志
import logging
import sys
logging.basicConfig(stream=sys.stdout, level=logging.INFO)
PropertyGraphIndex
的from_existing
方法
PropertyGraphIndex
的from_existing
方法是一个类方法,用于从现有的属性图存储(和可选的向量存储)创建索引。它接受多个参数,包括属性图存储、向量存储、语言模型等,并根据这些参数配置索引对象。
参数说明
参数名 | 类型 | 描述 | 默认值 |
---|---|---|---|
property_graph_store | PropertyGraphStore | 要使用的属性图存储。 | 必需 |
vector_store | Optional[BasePydanticVectorStore] | 如果图存储不支持向量查询,则使用的向量存储索引。 | None |
llm | Optional[LLM] | 用于提取三元组的语言模型。默认使用Settings.llm。 | None |
kg_extractors | Optional[List[TransformComponent]] | 用于提取三元组的转换组件列表。默认使用[SimpleLLMPathExtractor(llm=llm), ImplicitEdgeExtractor()]。 | None |
use_async | bool | 是否使用异步进行转换。默认值为True。 | True |
embed_model | Optional[EmbedType] | 用于嵌入节点的嵌入模型。如果未提供且embed_kg_nodes=True,则使用Settings.embed_model。 | None |
embed_kg_nodes | bool | 是否嵌入KG节点。默认值为True。 | True |
callback_manager | Optional[CallbackManager] | 要使用的回调管理器。 | None |
transformations | Optional[List[TransformComponent]] | 在插入节点之前应用于节点的转换列表。这些转换在kg_extractors之前应用。 | None |
storage_context | Optional[StorageContext] | 要使用的存储上下文。 | None |
show_progress | bool | 是否显示转换的进度条。默认值为False。 | False |
代码解析
@classmethod
def from_existing(
cls: Type["PropertyGraphIndex"],
property_graph_store: PropertyGraphStore,
vector_store: Optional[BasePydanticVectorStore] = None,
# general params
llm: Optional[LLM] = None,
kg_extractors: Optional[List[TransformComponent]] = None,
# vector related params
use_async: bool = True,
embed_model: Optional[EmbedType] = None,
embed_kg_nodes: bool = True,
# parent class params
callback_manager: Optional[CallbackManager] = None,
transformations: Optional[List[TransformComponent]] = None,
storage_context: Optional[StorageContext] = None,
show_progress: bool = False,
**kwargs: Any,
) -> "PropertyGraphIndex":
"""Create an index from an existing property graph store (and optional vector store)."""
return cls(
nodes=[], # no nodes to insert
property_graph_store=property_graph_store,
vector_store=vector_store,
llm=llm,
kg_extractors=kg_extractors,
use_async=use_async,
embed_model=embed_model,
embed_kg_nodes=embed_kg_nodes,
callback_manager=callback_manager,
transformations=transformations,
storage_context=storage_context,
show_progress=show_progress,
**kwargs,
)
设计思路
-
从现有属性图存储创建索引:
- 该方法接受一个现有的
property_graph_store
作为参数,并返回一个新的PropertyGraphIndex
对象。 - 如果提供了
vector_store
,则将其用于向量查询。
- 该方法接受一个现有的
-
配置语言模型和三元组提取器:
- 如果提供了
llm
,则使用该语言模型;否则,使用默认的语言模型。 - 如果提供了
kg_extractors
,则使用这些提取器;否则,使用默认的提取器。
- 如果提供了
-
配置异步和嵌入模型:
- 设置是否使用异步进行转换。
- 如果
embed_kg_nodes
为True,则使用提供的嵌入模型或默认的嵌入模型。
-
配置回调管理器和转换:
- 如果提供了
callback_manager
,则使用该回调管理器。 - 如果提供了
transformations
,则使用这些转换。
- 如果提供了
-
配置存储上下文和进度条显示:
- 如果提供了
storage_context
,则使用该存储上下文。 - 设置是否显示转换的进度条。
- 如果提供了
代码示例
from llama_index.core import PropertyGraphIndex
from llama_index.core.graph_stores import SimplePropertyGraphStore
from llama_index.llms.openai import OpenAI
# 定义LLM
llm = OpenAI(temperature=0, model="gpt-3.5-turbo")
# 创建属性图存储
property_graph_store = SimplePropertyGraphStore()
# 从现有属性图存储创建索引
pg_index = PropertyGraphIndex.from_existing(
property_graph_store=property_graph_store,
llm=llm,
embed_kg_nodes=True,
show_progress=True,
)
总结
通过Llama Index的PropertyGraphIndex
,我们可以轻松地从现有属性图存储创建索引。from_existing
方法的设计思路清晰,参数配置灵活,能够满足不同场景的需求。希望这篇博客能帮助你更好地理解和应用属性图技术。