分组向量检索

背景介绍

在向量检索的实际应用中,有些场景需要将向量检索的结果分组返回。例如:

  • 在RAG中,一篇文档往往需要拆分为多个段落,每个段落生成一个向量存入DashVector。在向量检索时,为了结果的多样性,不希望所有结果都来自同一篇文档的段落,而是希望结果返回多篇文档,并且每篇文档下仅返回最相似的若干个段落。

  • 在商品图像检索时,每个商品通常有多个商品图片,每个图片生成一个向量存入DashVector。在向量检索时,为了结果的多样性,不希望所有结果都是同一个商品的图片,而是希望返回多样化商品,并且每个商品下仅返回最相似的若干个图片。

向量检索服务DashVector支持分组向量检索,对于上面的两个场景可以通过分组检索Doc接口分别设置group_by_field为“文档ID”和“商品ID”,然后执行分组向量检索。


使用示例

前提条件

插入带有Field的数据

说明

需要使用您的api-key替换示例中的 YOUR_API_KEY、您的Cluster Endpoint替换示例中的YOUR_CLUSTER_ENDPOINT,代码才能正常运行。

import dashvector
import numpy as np

client = dashvector.Client(
    api_key='YOUR_API_KEY',
    endpoint='YOUR_CLUSTER_ENDPOINT'
)
ret = client.create(
    name='group_by_demo',
    dimension=4,
    fields_schema={'document_id': str, 'chunk_id': int}
)
assert ret

collection = client.get(name='group_by_demo')

ret = collection.insert([
    ('1', np.random.rand(4), {'document_id': 'paper-01', 'chunk_id': 1, 'content': 'xxxA'}),
    ('2', np.random.rand(4), {'document_id': 'paper-01', 'chunk_id': 2, 'content': 'xxxB'}),
    ('3', np.random.rand(4), {'document_id': 'paper-02', 'chunk_id': 1, 'content': 'xxxC'}),
    ('4', np.random.rand(4), {'document_id': 'paper-02', 'chunk_id': 2, 'content': 'xxxD'}),
    ('5', np.random.rand(4), {'document_id': 'paper-02', 'chunk_id': 3, 'content': 'xxxE'}),
    ('6', np.random.rand(4), {'document_id': 'paper-03', 'chunk_id': 1, 'content': 'xxxF'}),
])
assert ret

执行分组向量检索

ret = collection.query_group_by(
    vector=[0.1, 0.2, 0.3, 0.4],
    group_by_field='document_id',  # 按document_id字段的值分组
    group_count=2,  # 返回2个分组
    group_topk=2,   # 每个分组最多返回2个doc
)
# 判断是否成功
if ret:
    print('query_group_by success')
    print(len(ret))
    print('------------------------')
    for group in ret:
        print('group key:', group.group_id)
        for doc in group.docs:
            prefix = ' -'
            print(prefix, doc)

上面分组检索的示例结果如下:

query_group_by success
4
------------------------
group key: paper-01
 - {"id": "2", "fields": {"document_id": "paper-01", "chunk_id": 2, "content": "xxxB"}, "score": 0.6807}
 - {"id": "1", "fields": {"document_id": "paper-01", "chunk_id": 1, "content": "xxxA"}, "score": 0.4289}
group key: paper-02
 - {"id": "3", "fields": {"document_id": "paper-02", "chunk_id": 1, "content": "xxxC"}, "score": 0.6553}
 - {"id": "5", "fields": {"document_id": "paper-02", "chunk_id": 3, "content": "xxxE"}, "score": 0.4401}

限制说明

重要

1. group_by_field只能指定新建Collection时通过fields_schema参数定义的Field名称,Schema Free字段不支持分组检索。

2. group_countgroup_topk均为尽力而为参数,实际返回的分组数(group_count)和每个分组的doc数(group_topk)可能少于所设置的值。DashVector会优先保证分组数(group_count)。

3. 过大的group_countgroup_topk会增加索引扫描量,从而导致接口耗时增加。当前group_count最大值为64,group_topk最大值为16。

  • 5
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
向量空间模型(Vector Space Model,VSM)是一种用于表示文本的数学模型,常用于信息检索和自然语言处理任务中。下面是一些使用向量空间模型的步骤: 1. 收集语料库:首先,你需要收集一组相关的文本数据,这些文本可以是文章、网页、问题和答案等。 2. 文本预处理:对文本进行预处理是必要的步骤,可以包括以下几个步骤: - 分词:将文本划分为单词或词组。 - 去除停用词:去除常见的无意义词语,如“的”、“是”等。 - 词干化或词形还原:将单词还原为其基本形式,如将“running”还原为“run”。 - 构建词汇表:建立一个包含所有文本中出现的单词的词汇表。 3. 特征提取:将文本转换为向量表示是向量空间模型的核心。常用的特征提取方法有: - 词袋模型(Bag-of-Words):将每个文本表示为一个向量,其中每个维度对应一个词汇表中的单词,数值表示该单词在文本中出现的频率或者权重。 - TF-IDF(Term Frequency-Inverse Document Frequency):通过计算单词在文本中的频率和在整个语料库中的逆文档频率来确定单词的权重。 - Word2Vec:将单词映射为低维向量表示,通过学习单词的上下文关系来捕捉语义信息。 4. 相似度计算:使用向量表示的文本可以计算文本之间的相似度。常用的相似度计算方法有: - 余弦相似度:计算两个向量之间的夹角余弦值,值越接近1表示越相似。 - 欧氏距离:计算两个向量之间的欧氏距离,值越小表示越相似。 5. 应用:使用向量空间模型可以进行多种文本相关任务,例如: - 文本检索:通过计算查询文本与语料库中文本的相似度,找到与查询相关的文本。 - 文本分类:使用文本的向量表示作为输入,训练分类模型进行文本分类任务。 - 文本聚类:将相似的文本聚集在一起,发现文本的分组或主题。 以上是向量空间模型的基本使用步骤,具体的实现可以根据具体任务和工具库进行调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值