- 博客(420)
- 资源 (38)
- 收藏
- 关注
原创 基于 Qwen3-VL-Embedding-8B 实现文搜图语义内容检索
Qwen3-VL-Embedding 系列模型是通义千问家族的最新成员,基于强大的 Qwen3-VL 基础模型构建而成,与此同时开源的还有 Qwen3-VL-Reranker 系列。该系列专为多模态信息检索与跨模态理解而设计,可接受包括文本、图像、截图和视频在内的多种输入形式,以及这些模态任意组合的混合输入。
2026-02-07 08:00:00
363
原创 YOLO 家族新一代模型 YOLO26 上手使用及 Fine-Tuning 目标检测微调实验
YOLO26 是 YOLO 系列实时对象检测器的最新演进,专为边缘和低功耗设备而设计。消除了不必要的复杂性,同时集成了有针对性的创新,以实现更快、更轻、更易于访问的部署。此外,YOLO26 同样也具备多任务能力,不仅支持目标检测,还支持实例分割、姿态估计、旋转边界框。
2026-01-24 08:00:00
789
原创 基于 Qwen Code Skills 实践构建自定义数据分析智能体
Qwen Code 是一个面向开发者的智能编码助手,类似于 Claude Code,随着 Claude Code 推出 Skills 功能, Qwen Code 也迅速集成了相关功能,通过 Skills 可以将专业知识打包成可发现的功能。每个技能由一个 SKILL.md 文件组成,其中包含模型在相关时可以加载的指令,以及可选的支持文件如脚本和模板。本文将基于 Qwen Code Skills 功能构建一个数据库查询Skill,并基于该 Skill 实现数据方面的问答、分析、以及能够根据数据自动生成分析页面。
2026-01-15 19:00:00
1601
原创 Qwen Code + vLLM + Qwen3-Coder 构建本地私有化开发助手
Qwen Code 是一款类似于 Claude Code的AI编程助手,由阿里通义千问团队推出,一定程度上可以作为 Claude Code的平替工具,本文通过 Qwen Code + vLLM + Qwen3-Coder-30B-A3B-Instruct 构建纯内网下私服级开发辅助引擎。
2025-12-31 22:48:34
1223
原创 LangChain DeepAgents + MCP 构建深度研究型智能体应用
本文基于 LangChain DeepAgents + Tavily Search API , 快速构建一个可深度研究的智能体应用。其中 Tavily Search API 采用封装为MCP Server的方式提供给智能体调用。
2025-12-13 23:30:06
946
原创 使用 DeepSeek R1 心理医疗健康数据集 + Qwen2.5-0.5B-Instruct ,蒸馏专有领域思考模型
模型蒸馏是一种重要的模型压缩技术,核心思想是将教师模型的知识迁移到小模型中。其中一种有效的蒸馏方式是利用思维链,即让教师模型先思考再回答 ,并将这一过程作为训练信号,学生模型通过学习这种先分析、再结论的模式,不仅能提升回答的准确性,还能增强其解释性与专业深度。本文基于这一思路,对轻量级开源模型 Qwen2.5-0.5B-Instruct 进行蒸馏微调,探索小模型通过学习 如何思考,是否能在心理健康咨询这类高敏感任务中,提供更具深度、和可操作性的回答。
2025-11-29 12:36:29
980
原创 基于 Qwen3-Embedding-0.6B 模型 LoRA 微调训练文本语义相似性判断任务
基于开源的 Qwen3-Embedding-0.6B 模型进行 Lora 微调语义相似性判断任务,数据集采用 蚂蚁金融语义相似度数据集。
2025-11-08 12:15:35
756
原创 文档解析利器 PaddleOCR-VL 视觉文档解析模型本地部署和测试
PaddleOCR-VL 是一个针对文档解析的 SOTA 和资源高效的模型。高效支持 109 种语言,并在识别复杂元素(如文本、表格、公式、图表)方面表现出色,同时保持最低的资源消耗。在广泛使用的公共基准和内部基准上的全面评估,PaddleOCR-VL 在页面级文档解析和元素级识别方面均达到了 SOTA 性能。显著优于现有的解决方案,在顶级 VLM 中表现出强大的竞争力,并提供快速的推理速度。非常适合在实际场景中部署。
2025-10-24 19:00:00
1952
原创 无需训练 DINOv3 + KNN 快速构建自监督图像分类模型
DINOv3 是 Meta 2025年8月推出的视觉开源模型。核心优势在于通过大规模无监督预训练获得高度通用且语义丰富的图像表征能力。最大的亮点是 DINOv3 的骨干网络在完全冻结的情况下,仅通过添加轻量级任务头就能在多种任务上取得优异表现,无需微调即可直接应用。
2025-10-11 15:45:31
1108
原创 基于 PyTorch 完全从零手搓 GPT 混合专家 (MOE) 对话模型
混合专家模型(MOE)是一种 Transformer 神经网络架构的变种,通过一个门控网络为每个输入动态地选择一小部分 “专家” 子网络进行计算,从而以稀疏激活的方式提升模型容量与计算效率。核心特点在于其 高参数、低计算 的稀疏性。与稠密模型在处理每个输入时激活所有参数不同,MoE模型仅激活总参数的一小部分 ,并且能够随着专家的增加容纳更加丰富的知识和更强的泛化能力。像现在比较火爆的 DeepSeek 就是采用的 MoE 架构,足以证明 MoE 架构的强大潜力。
2025-09-27 13:41:35
1340
原创 从 NumPy 到 CuPy:轻松实现计算 GPU 性能加速
CuPy 是一个开源的高性能计算库,旨在利用 GPU 加速科学计算,作为 NumPy 的 GPU 加速替代方案,几乎完整复刻了 NumPy 的 API 设计,允许开发者在不修改现有代码的情况下,将计算任务迁移到 GPU 上执行。
2025-09-21 20:38:15
508
原创 使用 EvalScope 对 vLLM 私有化部署 Qwen3-30B-A3B 模型性能压测
EvalScope 是 ModelScope倾力打造的官方模型评估与性能基准测试框架,专为满足多样化的模型评测需求而设计,为开发者提供一站式解决方案。无论是前沿的大语言模型、多模态模型,还是专注于语义理解的 Embedding 模型、Reranker 模型等,EvalScope 均能提供全面支持,覆盖从基础能力到复杂场景的评估维度。
2025-09-13 10:00:00
1118
原创 基于 GME-Qwen2-VL-7B 实现多模态语义检索方案
GME-Qwen2VL 系列是统一的多模态Embedding模型,基于Qwen2-VL 训练,支持动态分辨率。模型支持三种类型的输入:文本、图像、图像-文本对,所有输入类型都可以生成通用的向量表示,并具有优秀的检索性能。使知识向量化不再局限于文本。基于该模型可以实现 文搜文、文搜图,图搜文,图搜图 等丰富的场景。
2025-08-30 10:00:00
515
原创 vLLM + Qwen3-Coder-30B-A3B-Instruct + Cline 构建私服级开发辅助引擎
本文介绍了如何利用开源大模型Qwen3-Coder-30B构建私有化AI编程助手,解决企业代码隐私与数据安全问题。通过vLLM框架部署Qwen3-Coder-30B模型,实现本地化代码生成服务,并使用Cline工具连接私服模型进行开发测试。
2025-08-09 10:00:00
1906
原创 LangChain + MCP 构建带可视化图表功能的ChatBI智能体
本文介绍了基于LangChain和MCP技术构建支持可视化图表的ChatBI智能体。实验采用美国COVID-19县级疫情数据,通过FastMCP实现数据查询服务,结合ModelScope的图表服务完成数据可视化。系统架构包含数据查询MCP Server、图表生成服务和GPT-4.1大模型,实现了从自然语言查询到可视化呈现的完整流程。关键技术点包括:MySQL数据存储、MCP服务封装、多工具协同调用等,最终能够根据用户提问自动生成饼图、柱状图等可视化结果。
2025-07-26 12:39:22
1286
原创 YOLO 家族全新一代 YOLO v13 上手使用及微调实验
YOLOv13是目标检测领域的最新成果,继承了YOLO系列的速度与精度优势并进行了多项创新。其核心创新是引入超图自适应相关增强机制(HyperACE),通过可学习的超边构建方式捕捉物体间的复杂关系,突破传统卷积和自注意力的限制。该模型包含Nano、Small、Large和XLarge四种版本,其中Nano版本在MS COCO数据集上达到41.6% mAP,仅需6.4G FLOPs,CPU推理速度可达25FPS。文章还详细介绍了如何快速使用YOLOv13进行目标检测,以及通过微调训练自定义人脸检测模型的方法,
2025-07-12 12:41:06
1768
原创 LLM 安全防护解决方案,使用 Roberta 训练 LLM 提示词注入攻击判决模型
本文探讨了针对大型语言模型的提示词注入攻击方法及防御策略。首先介绍了提示词攻击的基本原理和类型,包括直接、间接、代码和递归注入等攻击手段,以及可能造成的信息泄露、权限绕过等危害。然后提出了一种基于BERT模型的防御方案,通过微调训练重塑模型对自然语言指令的敏感性,构建提示词注入攻击判决模型。文章详细描述了训练语料生成过程,使用GPT-4.1生成5000条涵盖多个领域的攻击示例,并分析了数据集的Token分布情况。最后对数据集进行划分,将10%数据作为验证集用于模型评估。该研究为防范提示词注入攻击提供了实用的
2025-06-28 10:00:00
1087
原创 LangChain + MCP + vLLM + Qwen3-32B 构建本地私有化智能体应用
本文介绍了基于LangChain+vLLM+Qwen3-32B+MCP技术栈构建的本地ChatBI问答系统实现方案。主要内容包括: 使用vLLM部署Qwen3-32B大模型API服务;构建DB MCP Server实现数据库交互功能;LangChain Agent 智能体构建。该方案通过大模型本地化部署和MCP智能体的结合,实现了私有化智能数据查询助手。
2025-06-14 10:00:00
1194
原创 基于 OpenObserve 的轻量级分布式日志存储和追踪方案
OpenObserve 是一个基于 Rust 开发的开源云原生可观察性平台,专为处理海量数据(如日志、指标和追踪数据)而设计,具有高性能、低成本和易用性等特点。
2025-05-31 10:00:00
1664
原创 Spring AI 基于 RAG 构建本地知识库问答助手
Spring AI 提供了对 RAG(检索增强生成)的支持,通过向量检索增强技术,将本地私有化知识内容嵌入并存储到向量库中,作为知识库。当用户提问时,通过向量相似度检索召回相关知识,并将其作为上下文背景组装到 Prompt 中,从而增强大模型对私有知识的感知能力,减少幻觉。Spring AI 提供了多种文档读取器(如 JSON、PDF、Markdown 等)和文本拆分工具,并支持多种向量库。本文介绍了如何在 Spring Boot 项目中搭建 RAG 流程,使用 OpenAI 的 GPT-4.1 和 tex
2025-05-24 10:00:00
1128
原创 Spring AI 本地直接运行 Onnx Embedding 模型,结合 Milvus 实现语义向量的存储和检索
本文介绍了如何将 Huggingface 的 Embedding 模型转换为 Onnx 格式,并在 Java 环境中通过 SpringAI 本地运行。首先,使用 optimum-cli 工具将模型转换为 Onnx 格式,该过程依赖 Python 环境。转换完成后,Java 端无需再依赖 Python 环境。接着,通过 SpringBoot 项目引入相关依赖,配置 TransformersEmbeddingModel 以直接运行 Onnx 格式的 Embedding 模型。这种方法使得 Java 应用能够独立
2025-05-17 10:00:00
1062
原创 Qwen3 性价比新王 Qwen3-30B-A3B 本地私有化部署,可灵活切换思考模式
Qwen3 是 Qwen 系列大型语言模型的最新成员。该系列共包含8款模型,2款参数30B、235B的混合专家模型和6款参数0.6B、1.7B、4B、8B、14B、32B的稠密模型,每款模型均获得同尺寸开源模型的最佳性能。
2025-05-05 19:00:00
6062
原创 Spring AI + bge-large + Milvus 构建私有化语义内容检索方案
Spring AI是Spring官方社区项目,旨在简化Java AI应用开发,让Java开发者像使用Spring开发普通应用一样开发AI应用。本文基于Spring AI + bge-large + Milvus 构建私有化语义内容检索方案。
2025-04-26 08:00:00
2056
原创 Spring AI MCP Client + DeepSeek R1 搭建自定义可扩展的AI助手服务
MCP 由 Anthropic 推出的一种开放标准协议,旨在统一大模型(LLM)与外部数据源和工具之间的通信方式。通过 MCP 协议,开发者可以更高效地实现 AI 模型与外部资源的集成,从而提升应用的智能化和上下文感知能力。
2025-04-19 08:00:00
3399
8
原创 Spring AI MCP Server + Cline 快速搭建一个数据库 ChatBi 助手
Spring AI MCP 是基于 Spring AI 集成扩展了 MCP Java SDK,让开发者在 Spring 体系下可以快速开发 MCP Server 端或 MCP Client 端。
2025-03-30 21:39:45
3749
2
原创 QWQ-32B 本地私有化部署,性能媲美DeepSeek-R1满血版
QWQ-32B是阿里巴巴最新开源的一款新型推理模型,规模仅拥有320亿参数,但在多项基准测试中,性能几乎媲美 DeepSeek-R1 满血版,甚至某些测试中超越了 DeepSeek-R1 满血版。
2025-03-15 08:00:00
1162
原创 vLLM + Open-WebUI 本地私有化部署 DeepSeek-R1-Distill-Qwen-32B 方案
vLLM是一个快速且易于使用的大模型库,专为大模型的推理和部署而设计。可以无缝集成 HuggingFace、Modelscope 上的模型。Open WebUI是一个开源的、可扩展的、功能丰富的自托管AI平台,旨在完全离线运行。它主要设计用于与大型语言模型(LLMs)进行交互,支持多种模型和API,提供了直观的图形用户界面,使得用户可以更方便地管理和运行模型。通过 vLLM+Open WebUI快速部署DeepSeek-R1-Distill-Qwen-14B模型。
2025-03-07 16:58:59
4570
原创 实时目标检测新潮流 YOLO V12 整体介绍及微调训练
YOLO v12是YOLO系列中最新且最具创新性的版本,它将注意力机制引入到YOLO框架中,在保持高速推理的同时又显著提升了检测精度。成功打破了传统基于CNN在速度与性能之间的权衡困境。
2025-03-02 08:00:00
4427
原创 利用 vLLM 优化部署私有化大模型,让推理速度飞起
vLLM是一个快速且易于使用的大模型库,专为大模型的推理和部署而设计。可以无缝集成 HuggingFace、Modelscope 上的模型。在性能优化上 vLLM 通过引入创新的架构和算法,如Paged Attention、动态张量并行等,减少计算开销和提高吞吐量,实现推理过程的高效,从而加速LLM在推理阶段的性能。一定程度上解决了传统大模型在硬件资源有限情况下的性能瓶颈。
2025-01-21 20:00:00
4348
原创 MInio + kkFileView 通用服务端在线文件文档预览方案
kkFileView 是一个基于 SpringBoot 开发的万能文件预览开源项目,允许用户在浏览器端实时查看文件内容。
2025-01-12 08:00:00
1769
原创 基于 DINOv2 模型实现图搜图相似度检索任务
DINOv2是由Meta AI开发的第二代自监督视觉变换器模型,采用 Vision Transformer (ViT) 架构 。其核心特点是在无需人工标签的情况下,通过自监督学习技术,从海量无标注图像中学习有意义的视觉特征表示,类似于 NLP 领域的自监督 Base 模型,DINOv2 已经具有了对图像的理解能力,和强大的图像特征提取能力,因此它可以作为几乎所有计算机视觉任务的骨干模型。
2024-12-28 15:48:53
2522
原创 基于 Roberta 微调训练句子语义等价识别任务
句子语义等价识别任务,说白了,就是让模型来判断两个句子是不是在说同一个意思。就像我们人类有时候会说两句话来表达同一个想法。本文基于开源的 hfl/chinese-roberta-wwm-ext 模型,微调训练句子语义等价识别任务。
2024-12-14 08:00:00
795
原创 使用Numpy从零实现神经网络前向传播、反向传播、迭代训练等主要过程
本文从零开始实现了一个简单的神经网络,包括前向传播、反向传播和迭代训练过程。通过手动计算梯度并更新权重和偏置,最终实现了对输入数据的预测,并展示了损失函数随训练过程的变化。整个过程展现了神经网络的基本原理和实现方法。
2024-12-01 13:08:22
1637
原创 基于 PyTorch 从零手搓一个GPT Transformer 对话大模型
本文仅使用 PyTorch ,从零构建网络结构、构建词表、训练一个 GPT 对话模型。带你体验如何从0到1实现一个自定义的对话模型。模型整体以 Transformer Only Decoder 作为核心架构,由多个相同的层堆叠而成,每个层包括自注意力机制、位置编码和前馈神经网络。
2024-11-10 10:22:49
3648
9
原创 RT-DETR 基于Transformer的目标检测模型介绍及微调训练
RT-DETR是基于Transformer的目标检测模型,DETR的基础上采用了高效的混合编码器和IoU感知,有效降低了计算成本、提高了检测精度。
2024-11-03 14:26:42
7039
原创 基于 Roberta Lora 微调训练 搜索内容相关性判断模型
搜索内容相关性任务是指评估用户查询(`Query`)与搜索引擎返回的文档或信息(`Document`)之间的匹配程度。
2024-10-20 20:27:48
1329
原创 基于T5模型,端到端训练 Ner 命名实体识别任务
T5模型,是由Google提出的一种预训练语言模型,结构基于 Transformer 架构实现。T5模型的核心思想是将所有文本处理任务统一为 文本到文本 的转换任务。这表示,无论是文本分类、情感分析、问答还是机器翻译等任务,都可以通过输入一段文本,经过T5模型处理,输出另一段文本作为结果。这种统一的形式使得T5模型具有广泛的适用性。
2024-10-12 08:00:00
1253
原创 使用 YOLO V11 Fine-Tuning 训练自定义的目标检测模型
YOLOv11 在 YOLOv8 基础上进行了重要改进,同样支持全方位的视觉 AI 任务,包括检测、分割、姿态估计、跟踪和分类。它继续采用了卷积神经网络设计,充分利用了最新的计算能力,以提高检测效率和降低延迟。在实际应用中,无论是物体识别、跟踪还是图像分割,都展现出了卓越的性能。
2024-09-30 17:45:09
5722
原创 基于 Qwen2.5-0.5B 微调训练 Ner 命名实体识别任务
Qwen2.5 是 Qwen 大型语言模型的最新系列,参数范围从 0.5B 到 72B 不等。大大提高了编码和数学能力。在指令跟随、生成长文本(超过 8K 个标记)、理解结构化数据(例如表格)以及生成结构化输出(尤其是 JSON)方面有了显著改进。
2024-09-30 10:24:55
7238
5
原创 基于 Qwen2-1.5B Lora 微调训练医疗问答任务
Qwen是阿里巴巴集团Qwen团队研发的大语言模型和大型多模态模型系列。Qwen2 是 Qwen1.5 的重大升级。无论是语言模型还是多模态模型,均在大规模多语言和多模态数据上进行预训练,并通过高质量数据进行后期微调以贴近人类偏好。
2024-09-21 13:11:52
1848
7
canal1.1.5.zip
2020-12-13
阿里开发规范.zip
2020-12-08
swagger-ui-3.18.3.zip
2020-12-03
gitlib.zip
2020-12-09
Navicat for Oracle.zip
2021-03-08
apache-zookeeper-3.5.8.tar.gz-Delete
2020-12-04
redisclient-win32.x86.1.0.zip--Delete
2020-12-08
MyCat.tar.gz-Delete
2020-08-03
docker-19.03.8.tar.gz
2020-12-14
RedisClient-windows.zip
2020-12-08
zookeeper-3.4.10.tar.gz
2020-12-04
kafka_2.12-2.6.0.tar.gz
2020-12-04
mycat.tar.gz
2020-08-03
美国新冠疫情累计测试案例数据集
2022-10-23
hadoop-3.1.4 windows.zip
2022-10-05
hadoop 3.1.4
2022-10-03
data-for-1.7.5.zip
2022-01-03
elasticsearch7.8.0.zip
2022-01-03
stata1.4.2.zip
2021-12-22
sentinel.zip
2021-12-22
elastic-job-lite-console-master.zip
2021-12-22
harbor-offline-installer-v1.5.3.tgz
2021-08-15
dashboard-master.zip
2021-07-23
flannel-master.zip
2021-07-18
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅