Meilisearch 和 Ollama 实现文本向量搜索

Meilisearch 是一个开源、快速、简洁的全文搜索引擎,专为构建高性能、实时的搜索功能而设计。其主要特点如下:

  1. 极速搜索:Meilisearch 使用反向索引来加速搜索查询,因此能够在海量数据中提供毫秒级的响应时间,尤其适合实时搜索需求。

  2. 智能搜索:Meilisearch 支持模糊搜索、拼写纠错、同义词匹配、结果排序等功能,使得用户在搜索时无需提供完全准确的关键词。

  3. 即时更新:它支持对数据的实时更新,任何数据变动都会立即反映在搜索结果中,适合频繁变动的数据集。

  4. 轻量级:Meilisearch 采用 Rust 编写,内存占用较低,部署和使用都非常简单。通过一个简单的 RESTful API 即可操作,无需复杂的配置和维护。

  5. 多语言支持:Meilisearch 支持多种语言的文本处理和分析,包括词形还原、停用词处理等。对于不同语言,它可以自适应提供准确的搜索结果。

  6. 搜索体验优化:它不仅支持传统的精确匹配,还能根据用户的搜索意图返回最相关的结果,提升用户体验。

  7. 开源和可扩展性:由于是开源项目,开发者可以根据需要对其进行自定义扩展,并且有一个活跃的社区持续维护和改进。

Meilisearch 非常适合用于电商、博客、文档管理等需要提供快速搜索体验的应用场景。

1. Meilisearch 设置

1.1 部署 Meilisearch

首先,我们使用 Docker Compose 来启动 Meilisearch。创建一个 docker-compose.yml 文件,内容如下:

version: '3'  
services:  
  meilisearch:  
    container_name: meilisearch  
    image: getmeili/meilisearch:v1.8  
    environment:  
      - http_proxy  
      - https_proxy  
      - MEILI_MASTER_KEY=${MEILI_MASTER_KEY:-masterKey}  
      - MEILI_NO_ANALYTICS=${MEILI_NO_ANALYTICS:-true}  
      - MEILI_ENV=${MEILI_ENV:-development}  
      - MEILI_LOG_LEVEL  
      - MEILI_DB_PATH=${MEILI_DB_PATH:-/meili_data/data.ms}  
    ports:  
      - ${MEILI_PORT:-7700}:7700  
    networks:  
      - meilisearch  
    volumes:  
      - ./meili_data:/meili_data  
    restart: unless-stopped  
networks:  
  meilisearch:  
    driver: bridge  

1.2 配置环境变量

创建一个 .env 文件,用来存储 Meilisearch 的一些配置:

MEILI_MASTER_KEY=vhcdWXs31gt3cB76  
MEILI_NO_ANALYTICS=true  
MEILI_ENV=development  
MEILI_LOG_LEVEL=info  
MEILI_DB_PATH=./data.ms  
MEILI_PORT=7700  

参数说明
MEILI_MASTER_KEY
Meilisearch 的主密钥,用于身份验证。
MEILI_NO_ANALYTICS
禁用分析功能。
MEILI_ENV
Meilisearch 环境设置,development 表示开发环境。
MEILI_LOG_LEVEL
设置日志级别为 info,用于输出一般信息。
MEILI_DB_PATH
数据库路径,指定 Meilisearch 存储数据的位置。
MEILI_PORT
Meilisearch 运行时的端口号。

1.3 启动 Meilisearch

有了 docker-compose.yml.env 文件后,只需要运行以下命令即可启动 Meilisearch:

docker-compose up -d  

2. Ollama 设置

Ollama 是一个支持本地部署的大语言模型平台,可以帮助开发者通过 API 访问 AI 模型,并进行高效的自然语言处理任务。它通常用于构建自定义的 AI 应用和高级搜索功能,比如与 Meilisearch 集成进行向量搜索。Ollama 支持多种语言模型,并提供灵活的配置选项,允许开发者在本地或私有云环境中运行这些模型,避免了将数据发送到外部服务器的风险。

与 Meilisearch 集成时,Ollama 可以通过处理用户的查询,将其转换为向量,并与 Meilisearch 中的文档向量进行对比,从而实现高效的语义搜索。你可以通过 Ollama 的 API 定制各种自然语言任务,比如文本生成、摘要、分类等。

2.1 安装 Ollama

按照 Ollama 官方文档 的指示安装 Ollama。安装完成后,我们需要配置服务。

2.2 配置 Ollama 服务

创建一个新的 systemd 服务文件,路径为 /etc/systemd/system/ollama.service

[Unit]  
Description=Ollama Service  
After=network.target  
  
[Service]  
ExecStart=/usr/local/bin/ollama serve  
Restart=always  
User=root  
  
[Install]  
WantedBy=multi-user.target  

2.3 允许外部访问

如果你需要从外部网络访问 Ollama,需要修改服务配置,允许绑定到所有网络接口。创建 /etc/systemd/system/ollama.service.d/override.conf 文件,内容如下:

[Service]  
Environment="OLLAMA_HOST=0.0.0.0"  

接着,运行以下命令来重新加载服务并启动 Ollama:

systemctl daemon-reload  
systemctl restart ollama  

3. 配置 Meilisearch 向量搜索

3.1 激活向量搜索功能

首先,确保你激活了 Meilisearch 的向量搜索功能。你可以通过以下命令来打开这个功能:

curl -X PATCH 'https://meili.x.net/experimental-features/' \  
  -H 'Content-Type: application/json' \  
  -H 'Authorization: Bearer vhcdWXsxi11Np1gt3cB76' \  
  --data-binary '{  
    "vectorStore": true  
  }'  

3.2 配置 Meilisearch 使用 Ollama

接下来,我们将 Meilisearch 和 Ollama 结合使用。通过以下命令将 Ollama 作为 Meilisearch 的嵌入模型:

curl -X PATCH 'https://meili.x.net/indexes/posts/settings' \  
     -H 'Content-Type: application/json' \  
     -H 'Authorization: Bearer vhcdWXs3idet3cB76' \  
     --data-binary '{  
       "embedders": {  
         "default": {  
           "source": "ollama",  
           "url": "http://149.x:11434/api/embeddings",  
           "model": "nomic-embed-text",  
           "documentTemplate": "The document titled {{doc.title}} contains: {{doc.summary|truncatewords: 20}}"  
         }  
       }  
     }'  

Nomic-embed-text是一个新发布的开源文本嵌入模型,具有8192的上下文长度,能够有效处理短文本和长文本任务。该模型在性能上超越了OpenAI的text-embedding-ada-002和text-embedding-3-small,且参数量为137M,属于较小的模型。它的训练数据集包含2.35亿个文本对,支持研究人员复现和审计模型。

4. 执行向量搜索

现在你已经完成了配置,可以开始执行向量搜索查询了。下面是一个简单的查询例子:

curl -X POST -H 'content-type: application/json' \  
  -H 'Authorization: Bearer vhcdWXs3eycNmxi11Np1gt3cB76' \  
  'https://meili.x.net/indexes/posts/search' \  
  --data-binary '{  
    "q": "Cloudflare tunnel Mac 本地设置隧道指南",  
    "hybrid": {  
      "semanticRatio": 0.1,  
      "embedder": "default"  
    }  
  }'  

参数说明
source
指定嵌入器的来源,使用 Ollama 平台。
url
Ollama 提供的 API URL,用于生成嵌入向量。
model
使用的嵌入模型,nomic-embed-text 用于将文本转换为向量。
documentTemplate
文档模板,定义嵌入器如何从文档提取信息进行处理。{{doc.title}} 代表文档的标题,`{{doc.summarytruncatewords: 20}}` 代表文档摘要并截取前 20 个词。

5. 监控和维护

为了确保系统运行平稳,你可以查看 Ollama 的运行日志:

journalctl -u ollama.service -f  

还可以通过以下命令检查 Meilisearch 的设置是否正确:

curl -X GET 'https://meili.x.net/indexes/posts/settings' \  
   -H 'Authorization: Bearer vhcdWXs31Np1gt3cB76' \  
   -H 'Content-Type: application/json'  

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值