- 博客(242)
- 资源 (4)
- 收藏
- 关注
原创 FastGpt知识库加载url资源
本文介绍了一个基于Java实现的文件资源管理系统,主要功能是扫描服务器上的PDF资源并提供API接口返回资源列表。系统包含以下核心组件: 数据结构设计:使用FileItemDTO类封装文件信息(ID、名称、URL、大小、创建时间)和FastGPTResponse类包装响应数据。 服务实现: 支持全量扫描(项目启动时执行)和增量扫描(每10分钟定时执行) 通过递归扫描指定目录获取PDF文件 使用内存缓存维护文件列表和最后修改时间映射 关键特性: 路径配置灵活(PDF_LOCAL_PATH和PDF_ACCESS
2026-04-30 10:22:31
62
原创 Linux内网搭建FastGpt+配置ollama私有化的deepseek-r1:7b模型
本文介绍了在内网Linux服务器上部署FastGPT环境的完整流程。首先在Windows主机上拉取所需的Docker镜像(包括Redis、MongoDB、PGVector、MinIO等基础组件和FastGPT相关镜像),然后通过docker save命令将所有镜像打包成单个tar文件。接着将该文件传输到内网服务器,使用docker load导入镜像。最后提供了详细的docker-compose.yml配置,包含PostgreSQL、MongoDB、Redis、MinIO等服务的部署参数,以及FastGPT核
2026-04-29 16:06:31
91
原创 Langchain4j(4)RAG之入门示例
检索增强生成。让 AI 只能根据你提供的文档回答解决 AI 胡说八道 问题让 AI 能使用私有数据、内部文档把文字变成 一串数字语义相似的文本,向量距离更近是 RAG 能 “语义检索” 的基础。
2026-04-13 15:46:03
338
原创 Langchain4j(3) Prompt 提示词工程 + PromptTemplate + SystemMessage 高级用法
本文介绍了LangChain4j提示词核心组件及使用方式,主要包括: 核心三件套:PromptTemplate(带变量替换的模板)、SystemMessage(AI角色设定)、UserMessage/AiMessage(对话载体) 基础使用:通过PromptTemplate实现变量替换,动态生成提示词 核心功能:SystemMessage设定AI行为规则(如技术助手只回答技术问题) 高级集成:与AiServices结合,通过注解方式定义系统提示 动态系统提示:结合PromptTemplate实现可配置的角色
2026-04-13 11:15:57
106
原创 Langchain4j(2)历史数据库持久化、多用户记忆、长期保存、恢复历史
本文系统介绍了聊天系统的核心架构与实现流程。关键点包括:1) ChatMemory作为临时消息容器,ChatMessage作为持久化存储单元;2) 通过conversationId唯一标识对话;3) 核心流程围绕历史消息的加载(数据库→ChatMemory)与保存(ChatMemory→数据库)展开;4) 提供基础实现与企业级chatMemoryProvider两种方案;5) 完整生命周期管理从对话创建到持续交互的全过程。系统设计遵循"临时处理+持久存储"原则,确保多用户对话隔离和历史消
2026-04-08 15:34:50
215
原创 Langchain4j(1)基础对话+连续对话+工具调用 + 流式响应+结构化 JSON 输出
LangChain4j 是专为 Java 开发者设计的大语言模型(LLM)集成框架,核心价值是统一抽象多厂商模型、向量库与工具调用,让你快速构建智能应用。
2026-04-07 15:32:43
417
1
原创 Linux 环境 libreoffice 执行word转pdf 中文乱码问题
摘要:解决Linux系统下LibreOffice将Word转PDF出现乱码问题的方法。首先安装LibreOffice(sudo yum install libreoffice),然后将Windows系统的C:\Windows\Fonts文件夹上传至Linux的/usr/share/fonts目录,最后执行mkfontscale、mkfontdir和fc-cache命令更新字体缓存。通过fc-list :lang=zh可验证中文字体是否安装成功。该方法通过补充中文字体库有效解决了转换乱码问题。
2026-03-23 11:50:12
92
1
原创 零人公司操作系统Paperclip安装
Paperclip 是一个开源的 AI 智能体(Agent)编排系统,定位为「零人公司操作系统」,核心是把多个 AI Agent 组织成有架构、有预算、有目标的团队,让它们像真实公司一样协同运营业务。
2026-03-16 16:59:37
602
原创 Windows安装openClaw龙虾 wsl2 稳定安装版
本文介绍了在WSL2环境中配置和运行OpenClaw项目的完整流程。首先下载项目源码并配置WSL2环境,安装Ubuntu子系统。随后在WSL中安装Node.js和pnpm环境,并将项目文件复制到WSL中。重点演示了如何配置DeepSeek API接口,包括修改base_url、设置API密钥等步骤。最后详细说明了项目启动过程,包括生成认证token、配置个性化设置,以及设置系统服务实现开机自启动。整个过程涵盖了从环境搭建到项目部署的全部关键步骤,为在WSL环境下运行OpenClaw项目提供了完整指南。
2026-03-12 15:43:00
679
2
原创 Windows安装openClaw踩坑版本
本文详细记录了在Windows系统中配置开发环境的完整流程。首先通过NVM安装Node.js 22.12.0版本,然后启用WSL2并安装Ubuntu子系统。接着解决PowerShell脚本执行策略问题,成功安装pnpm包管理器。在尝试一键安装OpenClaw失败后,改为手动下载项目源码,使用pnpm安装依赖并构建项目。遇到WSL环境问题后,又在Ubuntu子系统中重新配置Node.js和pnpm环境,包括设置DNS、安装nvm、配置Node路径等。整个过程涵盖了Windows和WSL环境的协同配置,以及常见
2026-03-11 16:05:52
448
原创 大疆无人机API源码部署
本文介绍了DJI云API示例项目的部署流程。后端需要安装Docker、MySQL、Redis、EMQX和Minion服务,并配置相关参数(端口、数据库连接、Redis、MQTT等)。前端需安装NVM和Node环境。项目源码分别位于GitHub上的后端和前端仓库。配置文件中详细说明了服务器、数据库、Redis、MQTT、OSS存储等关键组件的连接参数,以及直播流媒体服务的设置要求。部署时需要先启动基础服务,执行SQL脚本,然后修改配置文件中的IP地址、账号密码等关键信息,最后启动应用服务。
2026-03-05 17:10:26
361
原创 docker安装EMQX MQTT
本文介绍了如何使用Docker快速部署EMQX MQTT消息服务器。通过docker run命令启动容器,映射1883(MQTT)、8083(WebSocket)、18083(管理界面)等关键端口,并配置了两个认证用户(admin/admin和JavaServer/123456)。18083端口提供Web管理控制台,默认账号为admin/public。该部署方式简便高效,适合快速搭建MQTT消息服务环境。
2026-03-05 16:09:15
76
原创 下载huggingface 模型
本文介绍了如何通过conda安装并配置hf-transfer工具来加速Hugging Face模型下载。首先创建Python 3.12的conda环境,安装huggingface_hub和hf-transfer依赖包,然后设置HF_HUB_ENABLE_HF_TRANSFER环境变量启用加速功能(Linux用export,Windows用$env命令)。最后演示了使用huggingface-cli下载bloom-560m模型到本地的命令。整个过程通过代码块和图片详细展示了操作步骤。
2026-02-26 08:35:27
78
原创 Windows私有化部署OpenManus
OpenManus 定位为通用型开源 AI 智能体框架,旨在复刻商业产品 Manus 的核心能力,降低 AI Agent 开发门槛,支持单 / 多智能体(实验性)协作,适合快速原型验证与二次开发,助力开发者构建自主执行复杂任务的 AI 代理。
2026-01-28 12:00:58
782
原创 Linux安装Whisper(C++版)音频解析文本
本文介绍了在Linux系统上安装和配置Whisper语音识别工具的全过程。首先在home目录创建whisper文件夹,下载whisper.cpp源码并解压。接着安装ffmpeg和必要的依赖包,通过脚本自动下载CentOS 7.9和EPEL的RPM包。然后配置CMake环境并编译whisper.cpp源码,将生成的可执行文件安装到/opt/whisper/bin目录。最后创建了一个便捷的whisper-transcribe命令脚本,用于调用whisper-cpp进行语音转写,支持自动将输入音频转换为16kHz
2025-12-16 15:06:09
484
原创 新版若依微服务增强swagger增强集成knife4j
本文介绍了将Swagger替换为Knife4j的操作步骤。在父POM中添加统一版本控制,删除原有Swagger依赖并引入Knife4j相关组件。配置文件方面,删除了Swagger相关配置,并在Gateway服务的Nacos配置中添加了Knife4j的路由配置,定义各模块的访问路径和顺序。通过POM依赖替换和配置调整,完成了从Swagger到Knife4j的切换。
2025-11-03 16:24:23
580
原创 java 使用 spring AI 实战 RAG (Chroma 向量数据库+Advisor)
我这里用的 :ollama+ qwen 大家可以根据自己的环境自行更改Windows版本Linux版本。
2025-09-04 14:10:35
972
3
原创 Linux环境下多个docker容器网络访问不通的问题
先查看是不是自己防火墙的问题,我这里防火墙的端口都已开放了不是这个问题。找到dify的api容器 和 xinference容器。,以后哪个容器访问不到它,就将它加入一下相关网络就行。访问不到,但是我在浏览器和服务器上访问时可以访问的。
2025-08-05 09:25:58
387
原创 Linux安装Xinference
Xinference) 是一个开源平台,用于简化各种 AI 模型的运行和集成。借助Xinference,我们可以使用任何开源LLM嵌入模型和多模态模型在云端或本地环境中运行推理,并创建强大的 AI 应用。和Ollama。
2025-08-04 14:21:04
1234
原创 Linux安装部署Dify+配置ollama私有化的deepseek-r1:7b模型+配置Xinference私有化的Embedding模型
可视化工作流编排:通过零代码拖拽式界面,无需编写代码就能构建复杂的AI工作流程,降低开发门槛,提高开发效率。多模型支持:可无缝集成GPT系列、Llama、Mistral等数百种语言模型,兼容OpenAI API兼容的私有化模型,也支持本地部署的LLaMA2、ChatGLM3等开源模型,让企业能根据业务需求和成本灵活选择。RAG增强检索。
2025-08-04 10:30:38
1610
原创 github代理
本文整理了多个Github代理网址,包括g.cachecdn.ggff.net、gitcode.com等,方便用户访问。同时提供了手动修改hosts文件的方法(适合临时使用),并推荐使用SwitchHosts工具自动更新Github IP。详细介绍了macOS/Linux和Windows系统的安装配置步骤,通过远程URL同步最新hosts,解决访问Github过慢的问题。文中附有操作截图,帮助用户快速完成设置。
2025-08-01 14:51:13
2408
原创 Linux安装AnythingLLM
官网首页直接提供的Desktop脚本安装,只能够个人使用,无法多人使用。方式进行安装可以满足多人同时使用。我这里的模型是 本地。
2025-07-31 14:14:33
726
2
原创 Linux安装ragflow(含一键安装脚本)
脚本会在docker中安装 redis 、 minio 、 es 、mysql 、ragflow ,如果服务器存在这些服务的记得处理下,为避免ragflow的端口冲突,我在脚本中设置了端口为8880开始检测,如果没占用采用8880进行web端访问端口。如果重复运行脚本就需要执行以下命令进行清理后再重启。将以下两个文件放到docker目录下。进入项目的docker目录下。设置模型,前文中安装了。总结:服务器需要安装。上传到服务器进行解压。
2025-07-29 14:42:58
914
2
原创 Linux(centos7)安装 docker + ollama+ deepseek-r1:7b + Open WebUI(内含一键安装脚本)
Ollama 是一个本地运行大型语言模型的简易框架,支持一键安装和部署。文章提供了 Linux环境下的 Docker 安装配置、Ollama 容器部署、Deepseek 模型下载以及 Open WebUI 可视化界面安装等功能,简化了本地大模型的运行流程。安装完成后,用户可通过指定端口访问 Ollama 服务和 Web 管理界面。
2025-07-24 17:12:30
1417
1
原创 Linux磁盘扩容
目录下只有50G但是/home下有839G我打算将/home的839G分500G给目录df -Th两个目录的文件类型都是xfsXFS 文件系统不支持缩小操作,不能直接缩小 /home 的逻辑卷(LV),否则会损坏文件系统。基于此开始操作。
2025-07-23 11:52:36
1102
原创 RAG理解
RAG(检索增强生成)技术的应用场景与实现原理。RAG通过将用户问题与向量数据库中的文档进行相似度匹配,再结合大模型生成答案,有效解决了模型幻觉和精度问题。相比微调方法,RAG成本更低,适合数据量较小的企业。文章详细介绍了RAG的工作流程:从文本向量化、向量数据库存储到相似度检索,并比较了Naive RAG的优缺点。最后指出当RAG精度不足时可结合知识图谱,并提供了入门Demo链接。RAG平衡了成本与效果,是当前大模型应用的重要技术方案。
2025-06-19 11:56:07
861
原创 elasticsearch证书过期进行更换
Elasticsearch SSL证书配置修复方案 摘要:本文提供了Elasticsearch单机版的SSL证书修复方案,包含YML配置文件模板和自动化脚本。配置文件中启用了xpack安全模块,设置了传输层和HTTP层的SSL证书路径(PKCS12格式密钥库和JKS格式信任库)。配套的bash脚本可实现证书体系自动化重建,主要功能包括:环境验证(OpenSSL版本和Java版本检测)、证书生成(CA证书、服务证书)、密钥库创建以及Elasticsearch配置更新。脚本采用模块化设计,包含状态提示和错误处理
2025-06-17 10:10:31
563
原创 RabbitMq安装
需求:将考试交卷算分功能使用队列处理,调研结果如下为什么选择RabbitMQ做交卷算分的功能呢,不用其他中间件呢?在考试交卷场景中,选择RabbitMQ1. 可靠性优先考试系统对数据完整性要求极高,交卷消息必须确保不丢失。RabbitMQ 通过以下机制提供强可靠性保障:生产者确认机制:支持同步 / 异步确认,确保消息成功发送到 Broker。持久化策略:队列和消息均支持持久化,即使 Broker 重启也不会丢失。手动 ACK 机制:消费者处理完成后才确认消息,失败时可重新入队。
2025-06-09 17:26:43
1264
原创 coze平台实现文生视频和图生视频(阿里云版)工作流
720P :视频分辨率通常指 1280×720(约 92万像素),视频宽高比为16:9。示例:若输入图像的宽高比例为 4:3,且视频分辨率档位为720P ,则输出视频的宽高比会保持4:3,分辨率会调整为接近 92万像素。例如,输出视频的分辨率为 1024×960,总像素 98.3万(此数据仅做参考,以实际输出为准)。轮询结束后获取视频链接,因为轮询会把每次的结果集都返回,(要么在轮询体中处理,要么就是返回后处理,这里是返回后处理的,拿的最后一条):首帧图的url,采用首帧图生视频或者首尾帧图生视频时使用。
2025-05-13 17:00:13
2690
6
原创 langchain +ollama +chroma+embedding模型实现RAG入门级Demo(python版)
RAGNaive RAG(朴素RAG)、(高级RAG)和(模块化RAG)RAG在成本效益上超过了原生LLM,但也表现出了几个局限性,这也更大家一个印象:入门容易,做好难。和的发展是为了解决Naive RAG中的缺陷。Naive RAG遵循一个传统的流程,包括索引、检索和生成,它也被称为“检索-阅读”框架,将查询(query)与文档的检索结合起来,通过大语言模型 (LLM) 生成答案。将数据先通过嵌入(embedding)算法转变为向量数据,然后存储在Chroma这种向量数据库。
2025-04-21 17:18:04
1304
原创 RAGFlow安装+本地知识库+踩坑记录
RAGFlow是一种融合了数据检索与生成式模型的新型系统架构,其核心思想在于将大规模检索系统与先进的生成式模型(如Transformer、GPT系列)相结合,从而在回答查询时既能利用海量数据的知识库,又能生成符合上下文语义的自然语言回复。该系统主要包含两个关键模块:数据检索模块和生成模块。数据检索模块负责在海量数据中快速定位相关信息,而生成模块则基于检索结果生成高质量的回答或文本内容。
2025-04-21 12:00:55
3203
2
原创 ollama加载本地自定义模型
因为我们自己微调好的模型呢就是我们自定义的模型了,这个ollama官方不支持咱自己微调的模型,而且我们微调好的模型也不想泄露出去,所以我们就需要这个自定义模型首先要新建一个Modelfile文件,这个文件放哪里都行,最好跟ollama模型放一块我这里放到了下起名叫的内容注册模型成功注册成功后进行使用。
2025-04-10 14:50:59
1376
20160325_1614199_IMOS_PlayerSDK_Win32_V2.01_796462_194214_0.zip
2019-07-25
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅