Python 是进入人工智能领域(认为是机器学习或生成人工智能AIGC)的主要武器,Java 和 Spring 仍引领着大多数开发社区, Java 开发人员如何与 LLM大模型 一起工作?这就是 Spring AI 弥补差距的地方。
Spring AI在 Spring 应用程序和可以在本地运行的 LLM 之间创建集成,这为所有 Java 开发人员提供了开发人工智能应用程序的能力。
在本文中,我们将了解如何使用 Ollama 在本地运行大模型,我们将考虑四个方面。
- 本地安装并运行 Ollama 和 qwen
- 创建SpringAI项目并详细查看项目配置。
- 访问本地嵌入。
- 访问本地聊天模型。
直接下载CSDN的资源
查看前面安装ollama
运行qwen:1.8b
新建项目,JDK选17,千万要用IDEA高一点的 2023 2024的。
- 添加依赖: 首先,确保你的
pom.xml
文件中包含了Spring AI和Ollama的相关依赖。<?xml version="1.0" encoding="