Spring AI 第三讲Embeddings(嵌入式) Model API 第一讲Ollama 嵌入

有了 Ollama,你可以在本地运行各种大型语言模型 (LLM),并从中生成嵌入。Spring AI 通过 OllamaEmbeddingModel 支持 Ollama 文本嵌入。

嵌入是一个浮点数向量(列表)。两个向量之间的距离可以衡量它们之间的相关性。距离小表示关联度高,距离大表示关联度低。

前提条件

首先需要在本地计算机上运行 Ollama。

请参阅官方 Ollama 项目 README,开始在本地计算机上运行模型。

安装 Ollama 运行 llama3 将下载一个 4.7GB 的模型工件。

添加资源库和 BOM

Spring AI 工件发布在 Spring Milestone 和 Snapshot 资源库中。请参阅 "资源库"部分,将这些资源库添加到您的构建系统中。

为了帮助进行依赖性管理,Spring AI 提供了一个 BOM(物料清单),以确保在整个项目中使用一致的 Spring AI 版本。请参阅 "依赖关系管理 "部分,将 Spring AI BOM 添加到构建系统中。

自动配置

Spring AI 为 Azure Ollama 嵌入式客户端提供 Spring Boot 自动配置功能。要启用它,请在 Maven pom.xml 文件中添加以下依赖关系:

<dependency>
   <groupId>org.springframework.ai</groupId>
   <artifactId>spring-ai-ollama-spring-boot-starter</artifactId>
</dependency>

 或 Gradle build.gradle 构建文件。

dependencies {
    implementation 'org.springframework.ai:spring-ai-ollama-spring-boot-starter'
}

请参阅 "依赖关系管理 "部分,将 Spring AI BOM 添加到构建文件中

spring.ai.ollama.embedding.options.* 属性用于配置所有嵌入请求的默认选项。(它作为 OllamaEmbeddingModel#withDefaultOptions() 实例使用)。

嵌入属性

前缀 spring.ai.ollama 是配置与 Ollama 连接的属性前缀

PropertyDescriptionDefault

spring.ai.ollama.base-url

运行 Ollama API 服务器的基本 URL。

localhost:11434

The prefix spring.ai.ollama.embedding.options is the property prefix that configures the EmbeddingModel implementation for Ollama.

PropertyDescriptionDefault

spring.ai.ollama.embedding.enabled

启用 Ollama 嵌入模型。

true

spring.ai.ollama.embedding.options.model

要使用的支持模型名称。

mistral

 其余选项属性基于 Ollama 有效参数和值以及Ollama 类型。默认值基于Ollama 类型默认值

Property

Description

Default

spring.ai.ollama.embedding.options.numa

是否使用 NUMA。

false

spring.ai.ollama.embedding.options.num-ctx

设置用于生成下一个标记的上下文窗口的大小。

2048

spring.ai.ollama.embedding.options.num-batch

-

spring.ai.ollama.embedding.options.num-gqa

变压器层中 GQA 组的数量。某些型号需要,例如 llama2:70b 为 8。

-

spring.ai.ollama.embedding.options.num-gpu

要发送到 GPU 的层数。在 macOS 上,默认值为 1 表示启用金属支持,0 表示禁用。

-

spring.ai.ollama.embedding.options.main-gpu

-

spring.ai.ollama.embedding.options.low-vram

-

spring.ai.ollama.embedding.options.f16-kv

-

spring.ai.ollama.embedding.options.logits-all

-

spring.ai.ollama.embedding.options.vocab-only

-

spring.ai.ollama.embedding.options.use-mmap

-

spring.ai.ollama.embedding.options.use-mlock

-

spring.ai.ollama.embedding.options.num-thread

设置计算时使用的线程数。默认情况下,Ollama 会检测线程数以获得最佳性能。建议将此值设置为系统的物理 CPU 内核数(而非逻辑内核数)。

-

spring.ai.ollama.embedding.options.num-keep

-

spring.ai.ollama.embedding.options.seed

设置生成文本时使用的随机数种子。将其设置为一个特定的数字将使模型为相同的提示生成相同的文本。

0

spring.ai.ollama.embedding.options.num-predict

生成文本时要预测的最大标记数。(默认值:128,-1 = 无限生成,-2 = 填充上下文)

128

spring.ai.ollama.embedding.options.top-k

降低产生无意义答案的概率。数值越大(如 100),答案就越多样化,而数值越小(如 10),答案就越保守。

40

spring.ai.ollama.embedding.options.top-p

与 top-k 一起使用。较高的值(如 0.95)将产生更多样化的文本,而较低的值(如 0.5)将产生更集中和保守的文本。

0.9

spring.ai.ollama.embedding.options.tfs-z

无尾采样用于减少输出中可能性较低的标记的影响。数值越大(例如 2.0),影响越小,而数值为 1.0 时,则会禁用此设置。

1

spring.ai.ollama.embedding.options.typical-p

-

spring.ai.ollama.embedding.options.repeat-last-n

设置模型回溯多远以防止重复。(默认值:64,0 = 禁用,-1 = num_ctx)

64

spring.ai.ollama.embedding.options.temperature

模型的温度。温度越高,模型的答案越有创意。

0.8

spring.ai.ollama.embedding.options.repeat-penalty

设置对重复的惩罚力度。数值越大(如 1.5),对重复的惩罚力度就越大,而数值越小(如 0.9),惩罚力度就越宽松。

1.1

spring.ai.ollama.embedding.options.presence-penalty

-

spring.ai.ollama.embedding.options.frequency-penalty

-

spring.ai.ollama.embedding.options.mirostat

启用 Mirostat 采样以控制复杂度。(默认值:0,0 = 禁用,1 = Mirostat,2 = Mirostat 2.0)

0

spring.ai.ollama.embedding.options.mirostat-tau

控制输出的连贯性和多样性之间的平衡。数值越小,文字越集中、连贯。

5.0

spring.ai.ollama.embedding.options.mirostat-eta

影响算法对生成文本的反馈做出反应的速度。学习率越低,算法的调整速度就越慢,而学习率越高,算法的反应速度就越快。

0.1

spring.ai.ollama.embedding.options.penalize-newline

-

spring.ai.ollama.embedding.options.stop

设置要使用的停止序列。遇到这种模式时,LLM 将停止生成文本并返回。可以通过在模型文件中指定多个单独的停止参数来设置多个停止模式。

-

所有以 spring.ai.ollama.embedding.options 为前缀的属性都可以通过在 EmbeddingRequest 调用中添加特定于请求的 Runtime Options 来在运行时重写。

运行时选项

OllamaOptions.java 提供了 Ollama 配置,如要使用的模型、底层 GPU 和 CPU 调整等。

默认选项也可使用 spring.ai.ollama.embedding.options 属性进行配置。

启动时,使用 OllamaEmbeddingModel#withDefaultOptions() 配置用于所有嵌入请求的默认选项。在运行时,你可以使用作为 EmbeddingRequest 一部分的 OllamaOptions 实例来覆盖默认选项。

例如,要覆盖特定请求的默认模型名称:

EmbeddingResponse embeddingResponse = embeddingModel.call(
    new EmbeddingRequest(List.of("Hello World", "World is big and salvation is near"),
        OllamaOptions.create()
            .withModel("Different-Embedding-Model-Deployment-Name"));

示例Controller

这将创建一个 EmbeddingModel 实现,您可以将其注入到您的类中。下面是一个使用 EmbeddingModel 实现的简单 @Controller 类示例。

@RestController
public class EmbeddingController {

    private final EmbeddingModel embeddingModel;

    @Autowired
    public EmbeddingController(EmbeddingModel embeddingModel) {
        this.embeddingModel = embeddingModel;
    }

    @GetMapping("/ai/embedding")
    public Map embed(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        EmbeddingResponse embeddingResponse = this.embeddingModel.embedForResponse(List.of(message));
        return Map.of("embedding", embeddingResponse);
    }
}

手动配置

如果不使用 Spring Boot,可以手动配置 OllamaEmbeddingModel。为此,请在项目的 Maven pom.xml 文件中添加 spring-ai-ollama 依赖关系:

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-ollama</artifactId>
</dependency>

或 Gradle build.gradle 构建文件。

dependencies {
    implementation 'org.springframework.ai:spring-ai-ollama'
}

请参阅 "依赖关系管理 "部分,将 Spring AI BOM 添加到构建文件中。

spring-ai-ollama 依赖关系还提供对 OllamaChatModel 的访问。有关 OllamaChatModel 的更多信息,请参阅Ollama Chat Client 部分。

接下来,创建一个 OllamaEmbeddingModel 实例,并用它来计算两个输入文本之间的相似度:

var ollamaApi = new OllamaApi();

var embeddingModel = new OllamaEmbeddingModel(ollamaApi)
    .withDefaultOptions(OllamaOptions.create()
			.withModel(OllamaOptions.DEFAULT_MODEL)
            .toMap());

EmbeddingResponse embeddingResponse = embeddingModel
	.embedForResponse(List.of("Hello World", "World is big and salvation is near"));

OllamaOptions 为所有嵌入请求提供配置信息。

OpenAI Embeddings API是一个自然语言处理API,可用于将文本转换为向量表示。以下是使用OpenAI Embeddings API的步骤: 1. 获取API密钥:访问OpenAI的网站,注册账户并获取API密钥。 2. 安装OpenAI SDK:在本地计算机上安装OpenAI SDK,以便与API进行交互。 3. 创建API客户端:使用OpenAI SDK创建API客户端,以便发送请求和接收响应。 4. 发送请求:使用API客户端发送请求,以将文本转换为向量表示。请求中需要包含要转换的文本和模型ID。 5. 处理响应:API将返回一个向量表示,可以在代码中使用该表示进行进一步的自然语言处理任务。 以下是一个使用OpenAI Embeddings API的Python示例代码: ``` import openai import json # 设置API密钥 openai.api_key = "YOUR_API_KEY" # 创建API客户端 model_engine = "text-babbage-001" client = openai.Model(model_engine) # 发送请求 text = "The quick brown fox jumps over the lazy dog." input_dict = {"text": text, "model": model_engine} response = client.generate(input_dict) # 处理响应 output_json = response.choices[0].text output_dict = json.loads(output_json) vector = output_dict["vector"] print(vector) ``` 在此示例中,我们使用了OpenAI SDK创建了一个名为`client`的API客户端,并使用`generate`方法向API发送请求。请求中包含了一个要转换的文本`text`和一个模型ID`model_engine`。API返回一个表示文本向量的JSON字符串,我们使用`json`模块将其转换为Python字典,并提取向量表示。最后,我们打印向量表示。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值