自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(439)
  • 资源 (4)
  • 收藏
  • 关注

原创 【编解码】 RK3588 大规模摄像头轮询抓帧技术方案(非长连接·低资源)

本文提出了一种基于瑞芯微RK3588平台的非长连接轮询抓帧框架,用于解决300+路海量摄像头周期性检测场景中的资源瓶颈问题。该方案采用按需连接、硬件解码和固定并发机制,通过FFmpeg进程的快速启动销毁实现资源高效利用。核心设计包括线程安全调度、RKMPP硬件解码加速、智能退避策略等关键技术,在RK3588平台上实测可稳定支持300路摄像头轮询,全量覆盖周期约50秒,内存占用仅600MB。相比传统长连接方案,该框架具有资源占用固定、支持规模大、稳定性高等优势,适用于园区安防、工业巡检等大规模周期性视觉检测场

2026-04-09 17:18:22 380

原创 【编解码】RK3588 平台基于 FFmpeg RKMPP 硬解的多路 RTSP 抓帧插件实战

在边缘计算、安防监控、机器人视觉等场景中,RK3588凭借内置VPU硬件解码能力成为多路视频流处理的首选平台。本文基于瑞芯微RKMPP硬解引擎+FFmpeg子进程,实现了一款配置化、高并发、低功耗的多路RTSP摄像头抓帧插件,彻底解决软解CPU占用高、并发能力弱、参数硬编码等痛点。本插件围绕RKMPP硬件解码FFmpeg子进程处理多线程并发架构我们按照插件生命周期拆解代码,逐模块讲解核心逻辑,快速掌握代码精髓。极致低CPU占用:硬解替代软解,CPU占用降低80%以上;配置化灵活控制。

2026-04-08 11:20:53 427

原创 【编解码】基于CPU的高性能 RTSP 多路摄像头抓帧插件:设计与实现详解

在安防监控、机器视觉等场景中,多路RTSP摄像头并发抓帧是核心需求。本文基于OpenCV+FFmpeg实现了一款高可用、高并发的多线程抓帧插件,具备连接池管理、动态健康监控、自动重连等企业级特性,完美解决多路摄像头采集的性能与稳定性问题。本插件的核心围绕RTSP视频流解码多线程并发采集连接池资源管理我们将代码按执行流程拆解,逐模块讲解核心逻辑,快速掌握代码精髓。资源优化:连接池复用+LRU淘汰,大幅降低系统资源占用;稳定性优化:自动重连、重试机制、指数退避,适配复杂网络环境;性能优化。

2026-04-08 10:12:54 444

原创 【DeepAgent】概述

Deep Agents 是构建 LLM 智能体最简单的方式,专门用来做复杂多步任务,自带四大核心能力:任务规划虚拟文件系统管理上下文生成子代理长期记忆对新手最友好:Deep Agents 是零门槛入门 Agent 开发的最优选择,不用理解 LangChain 组件、LangGraph 状态编排,一行函数创建 Agent技术本质:是 LangChain+LangGraph 的高级封装,底层能力拉满,上层 API 极简适合你的场景。

2026-03-31 14:37:43 369

原创 【LangGraph】 官方demo调整为本地大模型实现

【代码】【LangGraph】 官方demo调整为本地大模型实现。

2026-03-30 18:06:29 59

原创 针对 CV+AI Agent 工程师 岗位:LangGraph 核心自学计划

核心逻辑:先懂Agent范式 → 掌握LangGraph语法 → 把你的CV模型封装成Agent工具→ 做完整CV-Agent项目 → 工程化落地全程不脱离CV背景,所有实战均围绕视觉任务,贴合岗位需求。

2026-03-30 16:53:13 380

原创 AI Agent五大范式

Reasoning(推理/思考):我现在要解决什么问题?下一步该做什么?Acting(行动/调用):调用外部工具去执行,拿到结果再继续思考。思考 → 行动 → 观察 → 再思考 → 结束LLM 本身只能“文本生成”,无法真正执行代码、处理图像、查数据库。提前定义好外部工具(CV 模型、API、脚本、数据库)LLM 按结构化格式(JSON)选择工具、传入参数外部执行后把结果返回给 LLMAgent = LLM 大脑 + 工具手脚面对复杂、多步骤任务自动把大任务拆成多个子步骤按顺序执行。

2026-03-30 16:48:44 372

原创 【OpenClaw】让openclaw根据需求创造自定义skill记录

为 OpenClaw 系统提供关键进程健康检查、自动重启、异常进程清理能力。

2026-03-18 16:06:48 1802

原创 扣子编程开发的前端web项目(基于 [Next.js 16]),如何下载到本地并运行

本文提供了在Linux和Windows系统上安装Node.js、npm和pnpm的详细步骤指南。对于Linux系统,通过apt命令安装Node.js和npm后,使用npm全局安装pnpm;Windows系统则需要下载Node.js安装包完成安装。两种系统最后都需要在项目目录下执行"pnpm install"安装依赖,并通过"npm run dev"命令运行项目。文章包含清晰的命令行操作和配图说明,帮助用户完成前端开发环境的搭建和项目启动。

2026-03-17 15:16:15 197

原创 【OpenClaw】OpenClaw实现多智能体协同工作

更高级的用法是让主 Agent 作为“项目经理”,在接到复杂任务时,通过 sessions_send 工具,动态地将专业问题(如写代码)转发给专门的智能体(如 code-agent),后者处理完再返回结果。这会让 code-agent 拥有一个独立的“大脑”目录,用于存储它的记忆和专业技能,实现与其他智能体的逻辑隔离。:指定该智能体的专属“大脑”目录,用于存储它的记忆、身份设定(SOUL.md)等,这是实现逻辑隔离的关键。现在,我们需要修改主智能体(main)的配置文件,让它知道它可以使用。

2026-03-16 14:57:02 1317

原创 大模型智能体领域 MCP(Model Context Protocol)概念详解

MCP 是一套开放、跨模型、跨平台的通信标准,定义了大模型(LLM)/ 智能体如何发现、调用、交互外部能力(工具、数据、服务),实现 “一次集成,全场景复用”。MCP 是大模型智能体领域的基础设施级协议,通过标准化连接解决了 AI 与外部世界交互的核心痛点,大幅降低开发成本、提升扩展性,是智能体从 “单点能力” 走向 “复杂系统” 的关键技术。它不仅是工具调用协议,更是构建开放、互操作 AI 生态的基石。

2026-03-16 10:27:19 489

原创 【ollama】国内高速下载安装ollama,使用ollama下载qwen3.5大模型并运行

新版本的ollama可以拉取新版本的大模型,推荐直接安装最新版本的ollama,在。如果不知道目前支持的版本,在。

2026-03-12 15:12:26 1246

原创 【Claude Code】Windows 部署Claude Code 并搭载本地ollama大模型

在开始之前,请确保你的电脑已经安装了 Node.js 22.x 或更高版本。注意,ANTHROPIC_MODEL 的值一定要与ollama ps 查询到的模型名称完全一致。ANTHROPIC_MODEL:要与ollama ps 查询到的模型名称完全一致。ANTHROPIC_BASE_URL:替换大模型所在的服务器ip。olllama的安装及使用ollama安装大模型的方式自行搜索。本地大模型在局域网内的某ip服务器上,使用ollama运行。注意,url填写大模型所在服务器的ip,直接端口号结束即可。

2026-03-10 17:51:55 552

原创 【openclaw】skills介绍 && openclaw新增skills(clawhub)操作

智能体 Skill是一段封装了明确目标、输入输出、执行逻辑、工具调用或业务规则的可复用能力单元,由智能体自主加载、调度、执行,用于完成某一类专一、确定、可评估的任务。

2026-03-10 15:00:30 1699

原创 (windows)本地安装openclaw,完成配置并接入本地大模型(ollama)全流程指南

这个字段是可选的模型别名,说白了就是给你刚才配置的 qwen3.5:9b 模型起一个「好记的昵称」,方便后续在 OpenClaw 里快速识别这个模型(比如你以后加多个模型时,能一眼分清哪个是 Ollama 上的 qwen3.5:9b)。选择模型,可以选择云服务器商的API服务,也可以选择本地(局域网)部署的大模型。然后就是选择url,会默认给出一个,默认的格式和ollama的url格式一致,如果是本地的大模型可以不用修改,如果是局域网内某服务器的大模型,下载完成后打开安装包,按以下配置安装即可。

2026-03-10 11:26:29 1297

原创 【多模态大模型视觉微调】关于大模型/llama-factory的一些问答

LoRA 是 Low-Rank Adaptation(低秩适配) 的缩写,是目前大语言模型(LLM)领域最流行的一种高效微调技术。它的核心思想是:在不改变原始模型参数的前提下,通过添加少量可训练的参数来实现模型对特定任务的适应。在数学和线性代数中,秩(Rank) 是衡量一个矩阵包含信息量的重要指标。简单来说,秩表示矩阵中线性独立的行或列的最大数量。秩越低,意味着矩阵中的信息冗余度越高,可以用更少的向量组合来表示整个矩阵。

2026-02-28 14:41:17 751

原创 【多模态大模型视觉微调】LLama-Factory项目LORA微调训练全流程

LLaMA-Factory 是一个面向大语言模型(LLM)的高效训练与微调框架,专为简化 LLaMA 系列以及各类开源大模型的训练流程而设计。它以“开箱即用、灵活高效”为核心理念,提供从数据准备、参数高效微调(PEFT)、训练配置管理到模型部署的一站式解决方案。

2026-02-27 19:51:40 686

原创 【多模态大模型视觉微调】数据集标签适配与转换方法

脚本会读取指定目录下的 Label.txt 文件,解析每个图片的文本内容,并为每个图片生成一条包含 system、human 和 gpt 对话的标注数据。只要数据格式与模型训练时的模板匹配即可。将生成的 JSON 文件(如 mllm_classify.json、mllm_detect.json、mllm_ocr.json)放入 LLaMA-Factory 的 data 目录下。目标检测数据集的标签格式比较多,常见的有COCO格式的json文件,VOC格式的xml文件和YOLO格式的txt文件。

2026-02-27 16:11:13 750

原创 【Yolov5】基于华为Atlas和ascend python-api的推理模块

部署python环境时,在创建完python环境后,先安装aclruntime和ais_bench。引入了yolov5官方的一些python库。可以直接下载并并拷贝utils目录到本项目。引入了yolov5官方的一些python库。可以直接下载并并拷贝utils目录到本项目。引入了yolov5官方的一些python库。可以直接下载并并拷贝utils目录到本项目。:aarch64(uname -m查看):CANN(示例版本:8.0.RC2)(前提:按提示已经安装完成CANN):国产麒麟系统/欧拉系统。

2026-02-26 16:52:53 329

原创 【Yolov5】基于瑞芯微RK3588 python-api的推理模块

硬件:瑞芯微RK3588系统:ubuntu20.04语言:python3.8第三方依赖库:rknn_toolkit_lite2,rknn_toolkit2架构:aarch64依赖库下载链接:根据python版本合和架构(x86/arm64)选择对应版本https://github.com/airockchip/rknn-toolkit2/tree/master/rknn-toolkit2/packages/arm64https://github.com/airockchip/rknn-too

2026-02-11 17:19:15 549

原创 【Yolov5】基于瑞芯微rv1126的C++-api的推理模块的cpython封装(比python-api提速5倍以上)

其中:dataset.txt是量化数据集的索引文件,将量化数据集上传至convert_rknn_demo/yolov5目录下,将所有量化数据集的文件相对路径写在dataset.txt即可。其中rknn.load_onnx的outputs输入onnx模型3个conv下方的3个reshape层的输出。模型推理会完全执行:ONNX模型的所有计算都会被执行,因为这些输出节点是模型的最终输出节点。输出的是YOLOv5的原始输出:这三个节点对应YOLOv5的三个检测头(不同尺度的特征图)

2026-02-11 13:56:11 702

原创 【Yolov5】基于瑞芯微rv1126 python-api的推理模块

优点:实现比较快,只需要现在rknnlite的python-api的whl库文件即可,几乎没有额外的依赖文件缺点:计算效率较低,目前测试,计算一帧图像(model_size:[384,640])在100ms以上。不满足实时检测的需求推荐:后期尝试使用C++的api接口进行rknn模型推理,然后将C++部分使用cpython封装为so库文件,然后主体的python业务调用so库文件实现模型推理,效率很高,基本能实现视频流满帧推理。

2026-02-09 17:30:50 698

原创 【realsense】基于睿尔曼机械臂与realsense深度相机的手眼标定流程

基于睿尔曼的官方技术文档顺利完成了机械臂的手眼标定流程。总体流程非常顺利,代码几乎不需要做较大的调整。

2026-02-02 18:07:38 193

原创 【rv1126】rv1126开发板编译cpython内存不足报错

直接在rv1126开发板本机将python脚本编译成cpython的so库,容易遇到内存不足的报错,增加交换空间是个可行的方式。然后可以手动增加交换空间,例如增加500M空间。首先确认一下初始状态。

2026-01-20 11:26:25 223

原创 【Python】Linux x86架构实现aarch64的交叉编译环境(Cpython编译)

交叉编译到 aarch64, Python 3.8 (默认)交叉编译到 aarch64, Python 3.12。本机 x86 编译, Python 3.12。然后解压压缩包并进入python源码目录。首先需要在本机上安装python3.12。在python源码目录下,终端输入。解压到 /opt 目录。

2025-12-23 15:42:44 432

原创 【RV1126】离线armv7l开发板移植pyyaml第三方库(非烧录、免编译)

pipl很难直接找到预编译的whl文件,很多库是直接直接下载tar.gz源码,并在线编译,但rv1126编译非常慢,且容易报错。在本地联网的rv1126已经部署完成完整的python环境,需要直接把库文件打包,然后拷贝移植到待部署的离线rv1126板子(本文档方案,需要在离线的rv1126开发板部署一套python环境,现场环境不支持直接烧录rv1126开发板,只能ssh部署。(编译whl时的python环境要与现场环境一致,编译时需要下载好所有需要的依赖否则编译失败。复制PyYAML Python包。

2025-11-26 15:21:18 696

原创 【RV1126】离线armv7l开发板移植opencv-python第三方库(非烧录、免编译)

pipl很难直接找到预编译的whl文件,很多库是直接直接下载tar.gz源码,并在线编译,但rv1126编译非常慢,且容易报错。在本地联网的rv1126已经部署完成完整的python环境,需要直接把库文件打包,然后拷贝移植到待部署的离线rv1126板子(本文档方案,这个OpenCV是通过系统包管理器安装的,路径在 /usr/lib/python3/dist-packages/,并且依赖了大量的系统库。(编译whl时的python环境要与现场环境一致,编译时需要下载好所有需要的依赖否则编译失败。

2025-11-26 14:24:18 1010

原创 【RV1126】离线armv7l开发板移植numpy第三方python库(非烧录、免编译)

pipl很难直接找到预编译的whl文件,很多库是直接直接下载tar.gz源码,并在线编译,但rv1126编译非常慢,且容易报错。在本地联网的rv1126已经部署完成完整的python环境,需要直接把库文件打包,然后拷贝移植到待部署的离线rv1126板子(本文档方案,需要在离线的rv1126开发板部署一套python环境,现场环境不支持直接烧录rv1126开发板,只能ssh部署。(编译whl时的python环境要与现场环境一致,编译时需要下载好所有需要的依赖否则编译失败。numpy库离线移植安装成功!

2025-11-25 19:52:15 1072

原创 【RV1126】离线armv7l开发板移植shapely第三方python库(非烧录、免编译)

pipl很难直接找到预编译的whl文件,很多库是直接直接下载tar.gz源码,并在线编译,但rv1126编译非常慢,且容易报错。要将Shapely库移植到离线的RV1126板子上,需要同时移植Shapely的Python包文件及其核心依赖GEOS库。需要在离线的rv1126开发板部署一套python环境,现场环境不支持直接烧录rv1126开发板,只能ssh部署。(以上只是按照示例结果得出的路径信息,真实路径应以实际搜索到的路径为准)(以上只是按照示例结果得出的路径信息,真实路径应以实际搜索到的路径为准)

2025-11-25 15:36:48 534

原创 【Linux】调试监听接口是否正常

IP_ADDRESS是"0.0.0.0",这表示监听所有接口。如果没有检测到端口,则无打印;

2025-11-13 19:26:26 284

原创 【双光相机配准】红外相机与可见光相机配准方案

目前,需要将一台红外相机与一台可见光相机实现配准,以下是情况详述:需求:在可见光相机采集的图像上进行目标检测,检测到的检测框bbox坐标转换为红外图像坐标系的bbox坐标,判断bbox是否在红外图像范围内(因为双光相机的视野只有部分区域重叠);如果在红外图像内,返回映射到红外图像的bbox区域内的温度极值。同时刻可见光相机图像采集:同时刻红外相机图像采集:目的:实现可见光与红外相机的坐标转换:将红外相机的图像与可见光图像区域重叠(x1,y1,x2,y2),实现可视化的双光融合。然后手动微调(x1,y1,

2025-09-24 16:15:31 1640

原创 【双光相机配准】红外-可见光双光相机的坐标转换原理与实现

【代码】【双光相机配准】红外-可见光双光相机的坐标转换。

2025-09-24 16:12:57 661

原创 【双光相机配准】可见光与红外相机计算Homography

尝试自制了棋盘格红外标定板,将20x20mm的正方形铝片固定在白纸上,然后使用冰箱降温后采集数据,目前能够计算出矩阵。在每个采集点,红外相机与可见光相机同时采集多张图像,红外标定板可以在标定板所在平面进行位移(例如左右位移、上下位移、不可以前后位移、不要调整标定板倾斜角度),丰富采集特征。同时采集红外相机与可见光相机的标定板数据,需要标定板在红外相机图像与可见光相机图像下都能有良好的视觉特征,推荐直接采购专业的红外标定板。的一级子目录下的数字命名目录,代表标定板平面距离相机镜头平面之间的距离;

2025-09-24 15:55:29 924

原创 【双光相机配准】可见光相机内参标定流程

内参标定结果文件存储在当前目录下的vis_camera_calibration_{timestamp}.json和vis_camera_calibration_{timestamp}.npz文件中。CameraCalibrator对象需要输入images_list,即标定图像路径的数组;pattern_size是指棋盘格的内焦点数量,分别是行数和列数,不要理解为格子的行数和列数。如图的标定板应该是;示例:加载vis_camera_calibration_{timestamp}.json。

2025-09-24 14:45:09 757

原创 【阿里云PAI平台】 如何在Dify调用阿里云模型在线服务 (EAS)

VLLM_SKIP_SAMPLER_CPU_WARMUP=1 python -m vllm.entrypoints.openai.api_server --served-model-name [大模型应用名称] --model [大模型权重的文件目录] -tp 2 --gpu-memory-utilization=0.9 --max-model-len 32768。介绍如何部署阿里云PAI平台上的大模型,在本地服务器的dify如何直接调用部署在的阿里云上的大模型。信息,这就是大模型的API Key;

2025-09-16 14:52:13 1045

原创 如何写过滤条件wrapper的使用

五、自定义 SQL 片段。

2025-09-12 18:04:38 419

原创 达梦数据库相关操作语句

表名大写GROUP BY COLUMN_NAMEHAVING COUNT(*) = 2;– 出现两次说明两张表都有。–去重后列出 T_G_D_DEVICE 表所有列,并额外给 IP 做 DISTINCT。“这个字段在 Java 对象里有,但数据库表里不存在,不要拼到 SQL 里。多表联合,stationName、User等用于前端输出。– 如果字段还不存在,直接 ADD。删除某列字段和该字段中数据的sql。– 查当前用户下两张表的同名字段。查询某表的某字段并添加多个字段值。

2025-09-12 17:51:41 349

原创 解析json

{“Name”:“张a”,“Age”:“18”,“Address”:“河南”,“BookList”:[{“BookName”:“js”},{“BookName”:“c#”}]}[{“Name”:“张三”,“Age”:“18”,“Address”:“河南”},{“Name”:“李四”,“Age”:“20”,“Address”:“河北”}]json解析软件:https://www.bejson.com/jsonviewernew/index.html。//String类型的JSON字符串转换成Java对象。

2025-08-29 17:49:46 379

原创 注意空指针问题

注意处理了 null 值,避免空指针。

2025-08-29 17:37:11 162

原创 【Ascend】使用om模型推理报错:The argument is invalid.Reason: rtMalloc execute failed, reason=[context pointer

推理代码中加入以下3处代码。

2025-08-22 18:08:50 436

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除