第五章 Spring AI 集成Ollama,与qwen进行交流。看这一篇就够了

本文介绍了Java开发者如何借助Spring AI与LLM大模型,如Ollama和qwen,进行集成。通过本地安装和运行Ollama、配置SpringAI项目、创建控制器处理聊天请求,以及测试应用程序,开发者可以实现与大模型的交互。详细步骤包括选择JDK 17、添加相关依赖、配置Ollama连接和模型信息等。
摘要由CSDN通过智能技术生成

Python 是进入人工智能领域(认为是机器学习或生成人工智能AIGC)的主要武器,Java 和 Spring 仍引领着大多数开发社区, Java 开发人员如何与 LLM大模型 一起工作?这就是 Spring AI 弥补差距的地方。

Spring AI在 Spring 应用程序和可以在本地运行的 LLM 之间创建集成,这为所有 Java 开发人员提供了开发人工智能应用程序的能力。

在本文中,我们将了解如何使用 Ollama 在本地运行大模型,我们将考虑四个方面。

  1. 本地安装并运行 Ollama 和 qwen
  2. 创建SpringAI项目并详细查看项目配置。
  3. 访问本地嵌入。
  4. 访问本地聊天模型。

直接下载CSDN的资源

https://download.csdn.net/download/liujianming90/89107563

查看前面安装ollama

运行qwen:1.8b

新建项目,JDK选17,千万要用IDEA高一点的 2023 2024的。

  1. 添加依赖: 首先,确保你的pom.xml文件中包含了Spring AI和Ollama的相关依赖。
    <?xml version="1.0" encoding="
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

明爷们儿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值