自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(306)
  • 资源 (3)
  • 收藏
  • 关注

原创 RAG黄金三角:“BM25+向量+重排”三板斧榨干检索精度

"BM25广度检索 + 向量深度检索 + 交叉编码器重排"这一黄金组合,通过分层筛选、各司其职的方式,系统性地解决了单一检索模型的局限性。第一阶段的广度召回,保证了信息的全面性。第二阶段的语义过滤,语义检索保证候选集的相关性。第三阶段的精准重排,确保了最终输入给LLM的上下文质量。虽然该方法增加了系统的复杂度和计算成本,但对于追求高精度、高可靠性的RAG应用场景(如企业知识库问答、金融信息分析等),这些投入是完全值得的。

2025-12-24 17:35:58 1062

原创 Milvus向量数据库索引说明

需求场景推荐索引 (Vector)推荐索引 (Scalar)关键参数(需要调优)数据量小 / 需要绝对精确FLAT无需通用场景,平衡速度与精度IVF_FLATINVERTEDnlist​ (建库),nprobe(查询)内存有限,速度要快IVF_SQ8​,IVF_PQINVERTEDnlist​,nprobe​,m(PQ)搜索延迟极度敏感,内存充足HNSWINVERTEDM​,​ (建库),ef(查询)数据量超大,内存严重不足DISKANNINVERTED​,k。

2025-12-24 13:28:52 974

原创 Spring-Cloud-Alibaba:2023.0.1.X引起的dashscope-sdk-java依赖冲突问题

引入的Spring-Cloud-Alibaba版本是2023.0.1.0后,发现langchain4j-community-dashscope中dashscope-sdk-java版本变成了2.12.0。此时,langchain4j-community-dashscope包中ashscope-sdk-java的版本是2.21.1.升级后,langchain4j-community-dashscope中dashscope-sdk-java版本就变正常了。

2025-09-17 18:29:38 696 1

原创 基于Java的Markdown转Word工具(标题、段落、表格、Echarts图等)

项目源于我们开发的一款基于大模型的报告生成工具。由于需要将 Markdown 格式的内容导出为 Word 文档,而市面上缺乏合适的现成工具,我们决定自主研发一套解决方案。

2025-08-13 18:13:46 1508

原创 InfluxDB漏洞:Metrics 未授权访问漏洞

将 enabled = true 改为 enabled = false。打开InfluxDB 配置文件(通常是 influxdb.conf)。完成这些配置更改后,需要重启InfluxDB 服务才能使更改生效。找到 [http] 部分。

2025-08-08 17:48:25 1176

原创 将LangGraph4j开发的Agent智能体封装成MCP服务(附源码)

所谓“将智能体封装为 MCP 服务”,是指将一个已经具备自主决策、任务规划、记忆管理、工具调用等功能的智能体系统,通过标准化接口包装为符合 MCP 协议的服务模块。这样,该智能体即可作为 MCP 网络中的一个独立节点,对外提供能力调用、资源访问、上下文交互等功能。

2025-07-24 09:51:08 972

原创 (5)LangGraph4j框架ReActAgent实现

ReAct-Agent 是一种大模型应用中的智能体架构。ReAct 是 Re (Reasoning,推理)和 Act(Action,行动)两个单词的简写,用通俗的话来说,它可以让大模型像人一样“思考”和“行动”,实现更强的任务处理能力。

2025-07-14 19:19:05 690

原创 (4)LangGraph4j框架的人工干预(Human-in-Loop)

Human-in-Loop”功能是LangGraph4j的核心亮点之一。该功能允许在工作流的任何点引入人工干预,从而实现对模型输出的验证、更正或附加上下文。这种设计特别适用于大型语言模型(LLM)驱动的应用程序,因为这些模型的输出有时可能需要人工的进一步确认或调整。通过实现NodeAction接口,可以自定义节点的行为。在这个接口的apply方法中,可以根据当前的状态决定是否需要中断流程,并且可以在中断前后对状态进行更新。

2025-07-14 18:20:56 601

原创 (3)LangGraph4j框架入门

langgraph4j 是一个专为Java设计的库,它支持开发者构建状态ful、多智能体应用,并能够与语言模型(LLMs)无缝集成。这个项目是对LangChain AI项目中的LangGraph的Java版本移植,旨在为Java开发者提供一种更加直观和易于使用的方式来构建复杂的智能体交互图。

2025-07-11 11:32:05 1955

原创 (2)大模型Agent智能体设计范式

在2024年红杉资本人工智能峰会上,著名的人工智能专家吴恩达发表了一场备受关注的演讲,深入探讨了智能代理(agent)的四大范式。这四大范式代表了当前AI技术在不同应用领域中的核心方法和实践,分别是反思(Reflection)、工具使用(Tool Use)、规划(Planning)和多代理协作(Multi-Agent)。

2025-07-11 10:51:44 208

原创 (1)什么是AI智能体

智能体(Agent)是一个具备环境感知、决策制定及动作执行能力的自主算法系统。研发智能体的初衷在于模拟人类或其他生物的智能行为,旨在自动化地解决问题或执行任务。然而,传统智能体技术面临的主要挑战是它们通常依赖于启发式规则或受限于特定环境约束,很大程度上限制了它们在开放和动态场景中的适应性与扩展性。由于大语言模型在解决复杂任务方面展现出来了非常优秀的能力,越来越多的研究工作开始探索将大语言模型作为智能体的核心组件,以提高智能体在开放领域和动态环境中的性能。

2025-07-11 10:48:03 142

原创 大模型Agent智能体设计范式

在2024年红杉资本人工智能峰会上,著名的人工智能专家吴恩达发表了一场备受关注的演讲,深入探讨了智能代理(agent)的四大范式。这四大范式代表了当前AI技术在不同应用领域中的核心方法和实践,分别是反思(Reflection)、工具使用(Tool Use)、规划(Planning)和多代理协作(Multi-Agent)。

2025-07-09 08:45:37 399

原创 基于Java开发的浏览器自动化Playwright-MCP服务器

支持导航到指定 URL提供截图功能以捕获页面状态支持点击、选择、填写表单字段等常见浏览器操作集成日志记录和异常处理机制。

2025-06-14 09:12:31 1522 2

原创 Debian安装软件提示“更换介质”的解决方法

注释掉deb cdrom开头的行。3、更新源 apt update。1、切换root用户。

2025-05-21 16:11:59 395

原创 解决LangChain4j报错HTTP/1.1 header parser received no bytes

当使用调用自己部署的大模型服务时报错:报错信息如下:

2025-05-12 18:47:38 1905

原创 JDBC插件式数据库连接器

数据源抽象接口 (DataSource​): 定义了数据源的基本操作接口,所有具体数据库的实现都基于此接口。数据库连接工具 (​): 提供了数据库连接的创建、管理和释放功能。配置管理工具 (​): 支持多级 JSON 配置信息的无损存储和读取,便于动态调整连接参数。连接池实现 (​): 实现了高效的数据库连接池管理,减少频繁创建和销毁连接的开销。

2025-04-24 17:36:02 1063

原创 Java大模型MCP服务端开发-数据库查询与数据分析(附源码)

MCP服务器是模型上下文协议(MCP)架构中的基础组件,为客户端提供工具、资源和功能。暴露客户端可以发现和执行的工具管理基于URI的资源访问模式提供提示模板并处理提示请求支持与客户端的能力协商实现服务器端协议操作管理并发客户端连接提供结构化日志和通知下面,我将以Java语言开发一个简单的数据库查询MCP服务器,并通过Cherry Studio进行测试。

2025-04-16 18:17:31 1850

原创 Langchain4j和Spring-StateMachine实现多Agent代理协作

我们首先将状态和事件定义为枚举,以表示工作流中的步骤。

2025-01-17 11:12:18 1905

原创 修改GitLab远程分支名称

【代码】修改GitLab远程分支名称。

2024-12-30 17:46:19 805

原创 Springboot+Vue+Nginx配置HTTPS访问

keytool 是 Java Development Kit (JDK) 中的一个工具,用于管理公钥和私钥对以及相关的证书。这时候启动 springboot 如果读取密钥库报错,大概率是 maven 对密钥文件进行了重新编码导致的,需要将密钥文件排除。-keysize 指定 RSA 密钥对的大小,这里是 2048 位。这是一个常见的选择,因为它提供了足够的安全性,同时也在性能上是可接受的。-keyalg 指定生成密钥对时使用的算法,这里是 RSA。-alias 为生成的密钥对指定一个别名,可填写网站域名。

2024-12-09 13:50:58 827

原创 ChatGPT/GPT-4o科研应用、论文写作、课题申报与数据分析及AI绘图实战培训

ChatGPT培训实战

2024-08-26 18:30:37 279

原创 Qwen2模型Text2SQL微调​以及GGUF量化

Qwen2-1.5B微调准备python环境conda create --name llama_factory python=3.11conda activate llama_factory部署llama-factorygit clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.gitcd LLaMA-Factorypip3 install -e ".[torch,metrics]"# 如果要在 Windows 平台上开启量化

2024-07-26 19:28:36 2042

原创 内网环境使用Docker部署Qwen2模型

在我参与的一个国企项目中,我们基于大语言模型开发了一些应用,但是甲方公司所有的资源环境都是纯内网。更为有趣的是,甲方公司已自主搭建并运行着一套百度机器学习平台(BML),客户要求所有的大模型部署必须依托于现有的BML平台进行,而非独立构建全新的基础设施,资源申请也相当严苛。面对这一系列限定条件,我们只能试着利用Docker容器技术进行大语言模型的部署。

2024-06-21 22:17:18 3617 3

原创 Qwen2在Java项目中如何实现优雅的Function_Call工具调用

在当今AI技术飞速发展的背景下,大语言模型如Qwen2和GLM-4凭借其强大的语言处理能力,在诸多领域展现出了巨大的潜力。然而,大模型并非全知全能,它们在处理特定任务时,尤其是在需要与外部系统交互或执行具体功能时,会遇到一定的局限性。这主要是因为大模型通常被设计为封闭的文本生成系统,缺乏直接调用外部工具或API的能力。这种局限性凸显了工具调用在实际应用中的必要性,它能够扩展模型的功能边界,使其能够在真实世界场景中执行更加复杂和具体的操作。

2024-06-20 17:36:05 2993 5

原创 解决Nginx反向代理SSE请求卡顿的问题

最近开发了一个大模型的应用,采用SSE流式响应技术开发。前后端联调的时候,页面内容的响应还是很丝滑的。但使用Nginx部署前端程序后,页面内容的响应就感觉一卡一卡的,好像是每隔两三秒返回一部分内容一样。修改完以上内容,重启,就OK啦。

2024-06-19 14:41:36 3666 2

原创 使用Java访问大模型API出现响应式编程告警

在使用Java访问大模型服务进行问答过程中,出现Flux的告警信息。

2024-06-06 15:33:04 2005

原创 本地部署Llama3-8B并进行弱智吧问题测试

当地时间4月18日,Meta开源了Llama3大模型,目前开源版本为8B和70B。Llama 3模型相比Llama 2具有重大飞跃,并在8B和70B参数尺度上建立了LLM模型的新技术。由于预训练和后训练的改进,Llama3模型是目前在8B和70B参数尺度上存在的最好的模型。训练后程序的改进大大降低了错误拒绝率,改善了一致性,增加了模型响应的多样性。我们还看到了推理、代码生成和指令跟踪等功能的极大改进,使Llama 3更具可操控性。

2024-04-19 09:49:43 2719

原创 使用Ollama加载微软开源WizardLM2-7B模型,并进行“弱智吧”问题测试

当然基于以上的测试,我们也可以有理由猜测WizardLM2训练语料可能并不包含“弱智吧”的内容,另外,WizardLM2的中文语境下的效果可能确实没有英文语境下表现得好。开发团队在发布模型之前忘记对其进行毒性测试,微软删除了WizardLM2所有相关模型,HuggingFace的WizardLM仓库已经清空。接下来,我们使用ollama来加载测试一下WizardLM2-7B模型,看看他是否有微软宣称的那么强大。首先声明,此项测试并不严谨,仅仅作为一项娱乐测试,不具有任何参考意义。

2024-04-17 17:44:49 1321

原创 使用Java+Qwen+SearXNG构建本地AI搜索问答

,拓展大模型的网络搜索能力,但存在一个问题就是SerpAPI每月只能使用100次的免费调用。),调用SearXNG搜索(本地运行)在多个搜索引擎上进行搜索,可以实现完全免费、私人和本地运行的搜索聚合器。作为一个Java程序员,博主借鉴FreeAskInternet的思路,使用Java+Qwen+SearXNG构建了本地AI搜索问答,相比原来使用SerpAPI,使用上将不受限制。

2024-04-17 11:34:22 2550 1

原创 微软开源 WizardLM-2,70B优于GPT4-0613,7B持平阿里最新的Qwen1.5-32B

当地时间4月15号,微软发布了新一代大语言模型 WizardLM-2,新家族包括三个尖端型号:WizardLM-2 8x22B, WizardLM-2 70B,和WizardLM-2 7B,作为下一代最先进的大型语言模型,它在复杂聊天、多语言、推理和代理方面的性能有所提高。

2024-04-16 14:11:38 2274

原创 FreeAskInternet:本地AI搜索引擎,一周收获6.4K Star

FreeAskInternet是一个完全免费,私人和本地运行的搜索聚合器和答案生成使用LLM,无需GPU。用户可以提出一个问题,系统通过搜索进行多引擎搜索,并将搜索结果合并到ChatGPT3.5 LLM中,根据搜索结果生成答案。所有进程在本地运行,不需要GPU或OpenAI或Google API密钥。

2024-04-12 16:06:04 978

原创 Google开源代码大模型CodeGemma-7B力压CodeLLaMa-13B

CodeGemma 以 Gemma 模型为基础,为社区带来了强大而轻量级的编码功能。该模型可分为专门处理代码补全和代码生成任务的 7B 预训练变体、用于代码聊天和指令跟随的 7B 指令调优变体、以及在本地计算机上运行快速代码补全的 2B 预训练变体。

2024-04-11 11:46:37 1913

原创 挑战GPT4,开源大模型王者Llama3即将来袭

他的话语暗示着可能会有多次迭代或不同版本的发布。尽管现有报道仅确认 Llama 3 将同 Llama 2 一样集成代码生成能力,对于全面的多模态功能并未明确提及,然而,在官方发布的预告视频中,Meta 展示了将“人工智能”与“元宇宙”深度结合的愿景。去年七月,Meta 进一步推出了性能更为强劲的 Llama 2 版本,并在此基础上实现了开源协议的重大转折,由“仅限研究使用”升级至“完全免费商用”,尽管这一举措导致市场上出现大量基于 Llama 内核的衍生模型,但无疑重塑了大型语言模型行业的整体格局。

2024-04-10 10:43:42 535

原创 一篇文章读懂大模型Function_call和Agent的联系与区别

function_call通常指的是模型调用特定函数的能力,这些函数可以是内置的,也可以是用户自定义的。在执行任务时,模型可能会通过分析问题来决定何时以及如何调用这些函数。例如,一个语言模型在回答数学问题时,可能会使用内部的计算函数来得出答案。function_call机制允许模型利用外部工具或内部功能来增强其处理特定任务的能力。

2024-04-09 17:14:48 7739

原创 阿里开源Qwen-1.5-32B模型,性能超Mixtral MoE

开源社区长期以来一直在寻求一种能在性能、效率和内存占用之间达到理想平衡的模型。尽管出现了诸如Qwen1.5-72B和DBRX这样的SOTA模型,但这些模型持续面临诸如内存消耗巨大、推理速度缓慢以及显著的微调成本等问题。当前,参数量约30B的模型往往在这方面被看好,得到很多用户的青睐。顺应这一趋势,阿里推出Qwen1.5语言模型系列的最新成员:Qwen1.5-32B和Qwen1.5-32B-Chat。

2024-04-08 15:32:32 2823

原创 使用Java拓展本地开源大模型的网络搜索问答能力

开源大模型通常不具备最新语料的问答能力。因此需要外部插件的拓展,目前主流的langChain框架已经集成了网络搜索的能力。但是作为一个倔强的Java程序员,还是想要用Java去实现。可以选择Free Plan,提供每月100次的免费使用。接下来就是使用自己的邮箱和手机号进行注册。Serpapi 提供了多种搜索引擎的搜索API接口。

2024-04-03 13:42:02 1466

原创 微软开源的面向初学者的生成式人工智能课程

微软开源了一套面向初学者的生成人工智能课程,旨在通过18节课教我们开始构建生成式AI应用程序所需知道的一切。

2024-04-02 09:21:19 544

原创 AI程序员Devin的开源替代品-Devika

Devika是一名高级人工智能软件工程师,可以理解人类的高级指令,将它们分解成步骤,研究相关信息,并编写代码来实现给定的目标。Devika利用大型语言模型、规划和推理算法以及网页浏览能力来智能地开发软件。Devika的目标是通过提供一个人工智能结对程序员来彻底改变我们构建软件的方式,他可以在最少的人工指导下完成复杂的编码任务。无论您是需要创建新功能,修复错误,还是从头开始开发整个项目,Devika都可以为您提供帮助。Devika是模仿Devin设计的,旨在成为Devin的开源替代品。

2024-04-01 09:51:42 1737

原创 阿里通义千问Qwen1.5开源MoE模型

此外,相比Qwen1.5-7B,Qwen1.5-MoE-A2.7B的训练成本降低了75%,推理速度则提升了1.74倍。在这个比较分析中,阿里将Qwen1.5-MoE-A2.7B与最好的7B模型,比如Mistral-7B(base模型为v0.1,chat模型为v0.2)、Gemma-7B以及Qwen1.5-7B进行了对比。如果要使用量化模型,只需将模型名称Qwen1.5-MoE-A2.7B-Chat替换为Qwen1.5-MoE-A2.7B-Chat-GPTQ-Int4(暂时不支持AWQ)。

2024-03-29 08:40:19 2083

原创 借鉴LangChain思想使用Java实现大模型Function_Call工具开发及调用功能

虽然,使用以上框架实现了自定义工具,但是调用工具时,均需要依赖于python环境和以上框架,觉得还是有一定的限制。再加上,博主之前的基于大模型的所有功能(本地知识库、Text2SQL等)均是使用Java调用OpenAI接口实现,没有使用类似langChain这样的python框架。作为倔强的Java程序员,还是想用Java去实现自定义工具。博主之前研究的是ChatGLM3模型,该模型提供了Openai方式调用工具的代码。但后续转到Qwen1.5模型后,好像不可以直接用Openai接口的方式调用工具了。

2024-03-28 10:18:14 1766

SparkSQL内置函数.pdf

SparkSQL内置函数

2021-10-09

weblogic-10.3.6 220719补丁

weblogic-10.3.6 220719补丁 p34009030_1036_Generic.zip

2023-09-19

weblogic-10.3.6 220419补丁

weblogic-10.3.6 220419补丁 p33791826_1036_Generic.zip

2023-09-19

weblogic-10.3.6 220118补丁

weblogic-10.3.6 220118补丁 p33494814_1036_Generic.zip

2023-09-19

apache-hive-2.3.5-bin.tar.gz

对hive源码中的LineageLogger类进行了修改,增加了对血缘数据的相关处理,可直接在日志中得到表级和字段级血缘数据

2020-06-23

tg-jdbc-driver-1.2.jar

TigerGraph 是一款“实时原生并行图数据库”,既可以部署在云端也可以部署在本地,支持垂直扩展和水平扩展,可以对集群中的图数据自动分区,遵循 ACID 标准,并且提供了内置的数据压缩功能。它使用了一种消息传递架构,这种架构具备了可随数据增长而伸缩的并行性。 可使用此jar包,用jdbc的方式访问TigerGraph图数据库,执行一些查询的操作

2020-01-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除