自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(432)
  • 资源 (4)
  • 收藏
  • 关注

原创 【OpenClaw】让openclaw根据需求创造自定义skill记录

为 OpenClaw 系统提供关键进程健康检查、自动重启、异常进程清理能力。

2026-03-18 16:06:48 1366

原创 扣子编程开发的前端web项目(基于 [Next.js 16]),如何下载到本地并运行

本文提供了在Linux和Windows系统上安装Node.js、npm和pnpm的详细步骤指南。对于Linux系统,通过apt命令安装Node.js和npm后,使用npm全局安装pnpm;Windows系统则需要下载Node.js安装包完成安装。两种系统最后都需要在项目目录下执行"pnpm install"安装依赖,并通过"npm run dev"命令运行项目。文章包含清晰的命令行操作和配图说明,帮助用户完成前端开发环境的搭建和项目启动。

2026-03-17 15:16:15 78

原创 【OpenClaw】OpenClaw实现多智能体协同工作

更高级的用法是让主 Agent 作为“项目经理”,在接到复杂任务时,通过 sessions_send 工具,动态地将专业问题(如写代码)转发给专门的智能体(如 code-agent),后者处理完再返回结果。这会让 code-agent 拥有一个独立的“大脑”目录,用于存储它的记忆和专业技能,实现与其他智能体的逻辑隔离。:指定该智能体的专属“大脑”目录,用于存储它的记忆、身份设定(SOUL.md)等,这是实现逻辑隔离的关键。现在,我们需要修改主智能体(main)的配置文件,让它知道它可以使用。

2026-03-16 14:57:02 804

原创 大模型智能体领域 MCP(Model Context Protocol)概念详解

MCP 是一套开放、跨模型、跨平台的通信标准,定义了大模型(LLM)/ 智能体如何发现、调用、交互外部能力(工具、数据、服务),实现 “一次集成,全场景复用”。MCP 是大模型智能体领域的基础设施级协议,通过标准化连接解决了 AI 与外部世界交互的核心痛点,大幅降低开发成本、提升扩展性,是智能体从 “单点能力” 走向 “复杂系统” 的关键技术。它不仅是工具调用协议,更是构建开放、互操作 AI 生态的基石。

2026-03-16 10:27:19 392

原创 【ollama】国内高速下载安装ollama,使用ollama下载qwen3.5大模型并运行

新版本的ollama可以拉取新版本的大模型,推荐直接安装最新版本的ollama,在。如果不知道目前支持的版本,在。

2026-03-12 15:12:26 725

原创 【Claude Code】Windows 部署Claude Code 并搭载本地ollama大模型

在开始之前,请确保你的电脑已经安装了 Node.js 22.x 或更高版本。注意,ANTHROPIC_MODEL 的值一定要与ollama ps 查询到的模型名称完全一致。ANTHROPIC_MODEL:要与ollama ps 查询到的模型名称完全一致。ANTHROPIC_BASE_URL:替换大模型所在的服务器ip。olllama的安装及使用ollama安装大模型的方式自行搜索。本地大模型在局域网内的某ip服务器上,使用ollama运行。注意,url填写大模型所在服务器的ip,直接端口号结束即可。

2026-03-10 17:51:55 242

原创 【openclaw】skills介绍 && openclaw新增skills(clawhub)操作

智能体 Skill是一段封装了明确目标、输入输出、执行逻辑、工具调用或业务规则的可复用能力单元,由智能体自主加载、调度、执行,用于完成某一类专一、确定、可评估的任务。

2026-03-10 15:00:30 1333

原创 (windows)本地安装openclaw,完成配置并接入本地大模型(ollama)全流程指南

这个字段是可选的模型别名,说白了就是给你刚才配置的 qwen3.5:9b 模型起一个「好记的昵称」,方便后续在 OpenClaw 里快速识别这个模型(比如你以后加多个模型时,能一眼分清哪个是 Ollama 上的 qwen3.5:9b)。选择模型,可以选择云服务器商的API服务,也可以选择本地(局域网)部署的大模型。然后就是选择url,会默认给出一个,默认的格式和ollama的url格式一致,如果是本地的大模型可以不用修改,如果是局域网内某服务器的大模型,下载完成后打开安装包,按以下配置安装即可。

2026-03-10 11:26:29 962

原创 【多模态大模型视觉微调】关于大模型/llama-factory的一些问答

LoRA 是 Low-Rank Adaptation(低秩适配) 的缩写,是目前大语言模型(LLM)领域最流行的一种高效微调技术。它的核心思想是:在不改变原始模型参数的前提下,通过添加少量可训练的参数来实现模型对特定任务的适应。在数学和线性代数中,秩(Rank) 是衡量一个矩阵包含信息量的重要指标。简单来说,秩表示矩阵中线性独立的行或列的最大数量。秩越低,意味着矩阵中的信息冗余度越高,可以用更少的向量组合来表示整个矩阵。

2026-02-28 14:41:17 682

原创 【多模态大模型视觉微调】LLama-Factory项目LORA微调训练全流程

LLaMA-Factory 是一个面向大语言模型(LLM)的高效训练与微调框架,专为简化 LLaMA 系列以及各类开源大模型的训练流程而设计。它以“开箱即用、灵活高效”为核心理念,提供从数据准备、参数高效微调(PEFT)、训练配置管理到模型部署的一站式解决方案。

2026-02-27 19:51:40 632

原创 【多模态大模型视觉微调】数据集标签适配与转换方法

脚本会读取指定目录下的 Label.txt 文件,解析每个图片的文本内容,并为每个图片生成一条包含 system、human 和 gpt 对话的标注数据。只要数据格式与模型训练时的模板匹配即可。将生成的 JSON 文件(如 mllm_classify.json、mllm_detect.json、mllm_ocr.json)放入 LLaMA-Factory 的 data 目录下。目标检测数据集的标签格式比较多,常见的有COCO格式的json文件,VOC格式的xml文件和YOLO格式的txt文件。

2026-02-27 16:11:13 725

原创 【Yolov5】基于华为Atlas和ascend python-api的推理模块

部署python环境时,在创建完python环境后,先安装aclruntime和ais_bench。引入了yolov5官方的一些python库。可以直接下载并并拷贝utils目录到本项目。引入了yolov5官方的一些python库。可以直接下载并并拷贝utils目录到本项目。引入了yolov5官方的一些python库。可以直接下载并并拷贝utils目录到本项目。:aarch64(uname -m查看):CANN(示例版本:8.0.RC2)(前提:按提示已经安装完成CANN):国产麒麟系统/欧拉系统。

2026-02-26 16:52:53 309

原创 【Yolov5】基于瑞芯微RK3588 python-api的推理模块

硬件:瑞芯微RK3588系统:ubuntu20.04语言:python3.8第三方依赖库:rknn_toolkit_lite2,rknn_toolkit2架构:aarch64依赖库下载链接:根据python版本合和架构(x86/arm64)选择对应版本https://github.com/airockchip/rknn-toolkit2/tree/master/rknn-toolkit2/packages/arm64https://github.com/airockchip/rknn-too

2026-02-11 17:19:15 499

原创 【Yolov5】基于瑞芯微rv1126的C++-api的推理模块的cpython封装(比python-api提速5倍以上)

其中:dataset.txt是量化数据集的索引文件,将量化数据集上传至convert_rknn_demo/yolov5目录下,将所有量化数据集的文件相对路径写在dataset.txt即可。其中rknn.load_onnx的outputs输入onnx模型3个conv下方的3个reshape层的输出。模型推理会完全执行:ONNX模型的所有计算都会被执行,因为这些输出节点是模型的最终输出节点。输出的是YOLOv5的原始输出:这三个节点对应YOLOv5的三个检测头(不同尺度的特征图)

2026-02-11 13:56:11 691

原创 【Yolov5】基于瑞芯微rv1126 python-api的推理模块

优点:实现比较快,只需要现在rknnlite的python-api的whl库文件即可,几乎没有额外的依赖文件缺点:计算效率较低,目前测试,计算一帧图像(model_size:[384,640])在100ms以上。不满足实时检测的需求推荐:后期尝试使用C++的api接口进行rknn模型推理,然后将C++部分使用cpython封装为so库文件,然后主体的python业务调用so库文件实现模型推理,效率很高,基本能实现视频流满帧推理。

2026-02-09 17:30:50 647

原创 【realsense】基于睿尔曼机械臂与realsense深度相机的手眼标定流程

基于睿尔曼的官方技术文档顺利完成了机械臂的手眼标定流程。总体流程非常顺利,代码几乎不需要做较大的调整。

2026-02-02 18:07:38 174

原创 【rv1126】rv1126开发板编译cpython内存不足报错

直接在rv1126开发板本机将python脚本编译成cpython的so库,容易遇到内存不足的报错,增加交换空间是个可行的方式。然后可以手动增加交换空间,例如增加500M空间。首先确认一下初始状态。

2026-01-20 11:26:25 219

原创 【Python】Linux x86架构实现aarch64的交叉编译环境(Cpython编译)

交叉编译到 aarch64, Python 3.8 (默认)交叉编译到 aarch64, Python 3.12。本机 x86 编译, Python 3.12。然后解压压缩包并进入python源码目录。首先需要在本机上安装python3.12。在python源码目录下,终端输入。解压到 /opt 目录。

2025-12-23 15:42:44 412

原创 【RV1126】离线armv7l开发板移植pyyaml第三方库(非烧录、免编译)

pipl很难直接找到预编译的whl文件,很多库是直接直接下载tar.gz源码,并在线编译,但rv1126编译非常慢,且容易报错。在本地联网的rv1126已经部署完成完整的python环境,需要直接把库文件打包,然后拷贝移植到待部署的离线rv1126板子(本文档方案,需要在离线的rv1126开发板部署一套python环境,现场环境不支持直接烧录rv1126开发板,只能ssh部署。(编译whl时的python环境要与现场环境一致,编译时需要下载好所有需要的依赖否则编译失败。复制PyYAML Python包。

2025-11-26 15:21:18 685

原创 【RV1126】离线armv7l开发板移植opencv-python第三方库(非烧录、免编译)

pipl很难直接找到预编译的whl文件,很多库是直接直接下载tar.gz源码,并在线编译,但rv1126编译非常慢,且容易报错。在本地联网的rv1126已经部署完成完整的python环境,需要直接把库文件打包,然后拷贝移植到待部署的离线rv1126板子(本文档方案,这个OpenCV是通过系统包管理器安装的,路径在 /usr/lib/python3/dist-packages/,并且依赖了大量的系统库。(编译whl时的python环境要与现场环境一致,编译时需要下载好所有需要的依赖否则编译失败。

2025-11-26 14:24:18 994

原创 【RV1126】离线armv7l开发板移植numpy第三方python库(非烧录、免编译)

pipl很难直接找到预编译的whl文件,很多库是直接直接下载tar.gz源码,并在线编译,但rv1126编译非常慢,且容易报错。在本地联网的rv1126已经部署完成完整的python环境,需要直接把库文件打包,然后拷贝移植到待部署的离线rv1126板子(本文档方案,需要在离线的rv1126开发板部署一套python环境,现场环境不支持直接烧录rv1126开发板,只能ssh部署。(编译whl时的python环境要与现场环境一致,编译时需要下载好所有需要的依赖否则编译失败。numpy库离线移植安装成功!

2025-11-25 19:52:15 1065

原创 【RV1126】离线armv7l开发板移植shapely第三方python库(非烧录、免编译)

pipl很难直接找到预编译的whl文件,很多库是直接直接下载tar.gz源码,并在线编译,但rv1126编译非常慢,且容易报错。要将Shapely库移植到离线的RV1126板子上,需要同时移植Shapely的Python包文件及其核心依赖GEOS库。需要在离线的rv1126开发板部署一套python环境,现场环境不支持直接烧录rv1126开发板,只能ssh部署。(以上只是按照示例结果得出的路径信息,真实路径应以实际搜索到的路径为准)(以上只是按照示例结果得出的路径信息,真实路径应以实际搜索到的路径为准)

2025-11-25 15:36:48 521

原创 【Linux】调试监听接口是否正常

IP_ADDRESS是"0.0.0.0",这表示监听所有接口。如果没有检测到端口,则无打印;

2025-11-13 19:26:26 271

原创 【双光相机配准】红外相机与可见光相机配准方案

目前,需要将一台红外相机与一台可见光相机实现配准,以下是情况详述:需求:在可见光相机采集的图像上进行目标检测,检测到的检测框bbox坐标转换为红外图像坐标系的bbox坐标,判断bbox是否在红外图像范围内(因为双光相机的视野只有部分区域重叠);如果在红外图像内,返回映射到红外图像的bbox区域内的温度极值。同时刻可见光相机图像采集:同时刻红外相机图像采集:目的:实现可见光与红外相机的坐标转换:将红外相机的图像与可见光图像区域重叠(x1,y1,x2,y2),实现可视化的双光融合。然后手动微调(x1,y1,

2025-09-24 16:15:31 1591

原创 【双光相机配准】红外-可见光双光相机的坐标转换原理与实现

【代码】【双光相机配准】红外-可见光双光相机的坐标转换。

2025-09-24 16:12:57 637

原创 【双光相机配准】可见光与红外相机计算Homography

尝试自制了棋盘格红外标定板,将20x20mm的正方形铝片固定在白纸上,然后使用冰箱降温后采集数据,目前能够计算出矩阵。在每个采集点,红外相机与可见光相机同时采集多张图像,红外标定板可以在标定板所在平面进行位移(例如左右位移、上下位移、不可以前后位移、不要调整标定板倾斜角度),丰富采集特征。同时采集红外相机与可见光相机的标定板数据,需要标定板在红外相机图像与可见光相机图像下都能有良好的视觉特征,推荐直接采购专业的红外标定板。的一级子目录下的数字命名目录,代表标定板平面距离相机镜头平面之间的距离;

2025-09-24 15:55:29 892

原创 【双光相机配准】可见光相机内参标定流程

内参标定结果文件存储在当前目录下的vis_camera_calibration_{timestamp}.json和vis_camera_calibration_{timestamp}.npz文件中。CameraCalibrator对象需要输入images_list,即标定图像路径的数组;pattern_size是指棋盘格的内焦点数量,分别是行数和列数,不要理解为格子的行数和列数。如图的标定板应该是;示例:加载vis_camera_calibration_{timestamp}.json。

2025-09-24 14:45:09 746

原创 【阿里云PAI平台】 如何在Dify调用阿里云模型在线服务 (EAS)

VLLM_SKIP_SAMPLER_CPU_WARMUP=1 python -m vllm.entrypoints.openai.api_server --served-model-name [大模型应用名称] --model [大模型权重的文件目录] -tp 2 --gpu-memory-utilization=0.9 --max-model-len 32768。介绍如何部署阿里云PAI平台上的大模型,在本地服务器的dify如何直接调用部署在的阿里云上的大模型。信息,这就是大模型的API Key;

2025-09-16 14:52:13 1030

原创 如何写过滤条件wrapper的使用

五、自定义 SQL 片段。

2025-09-12 18:04:38 415

原创 达梦数据库相关操作语句

表名大写GROUP BY COLUMN_NAMEHAVING COUNT(*) = 2;– 出现两次说明两张表都有。–去重后列出 T_G_D_DEVICE 表所有列,并额外给 IP 做 DISTINCT。“这个字段在 Java 对象里有,但数据库表里不存在,不要拼到 SQL 里。多表联合,stationName、User等用于前端输出。– 如果字段还不存在,直接 ADD。删除某列字段和该字段中数据的sql。– 查当前用户下两张表的同名字段。查询某表的某字段并添加多个字段值。

2025-09-12 17:51:41 345

原创 解析json

{“Name”:“张a”,“Age”:“18”,“Address”:“河南”,“BookList”:[{“BookName”:“js”},{“BookName”:“c#”}]}[{“Name”:“张三”,“Age”:“18”,“Address”:“河南”},{“Name”:“李四”,“Age”:“20”,“Address”:“河北”}]json解析软件:https://www.bejson.com/jsonviewernew/index.html。//String类型的JSON字符串转换成Java对象。

2025-08-29 17:49:46 375

原创 注意空指针问题

注意处理了 null 值,避免空指针。

2025-08-29 17:37:11 160

原创 【Ascend】使用om模型推理报错:The argument is invalid.Reason: rtMalloc execute failed, reason=[context pointer

推理代码中加入以下3处代码。

2025-08-22 18:08:50 424

原创 【Python】源码安装python后报错:ModuleNotFoundError: No module named ‘_lzma‘

本文提供了解决Python中"ModuleNotFoundError: No module named '_lzma'"等类似错误的两种方案。问题根源在于缺少liblzma-dev开发包导致编译时跳过_lzma模块构建。方案一建议安装依赖库后重新编译Python,提供Ubuntu和CentOS系统的具体安装命令。方案二介绍如何从系统自带Python库中复制_lzma.so文件到目标Python环境,适用于本地Python版本与编译版本一致的情况。两种方法均附带详细操作步骤和命令示例,用户

2025-08-18 16:33:08 545

原创 【Python】在rk3588开发板排查内存泄漏问题过程记录

实时视频检测程序,可支持多路视频流实时目标检测等操作。在服务器上运行正常,移植到RK3588,并开发基于rknn的推理模块。在测试期间发现内存泄露的问题,使用top指令长期观察,内存平均以约5%每小时的速度增长;

2025-08-11 20:06:36 566

原创 python安装部署rknn-toolkit2(ModuleNotFoundError: No module named ‘rknn_toolkit2‘)

下载连接:https://pypi.org/project/rknn-toolkit2/#files。python 安装rknn-toolkit-lite。选择对应的python版本、软件版本、和系统架构。选择对应的python版本、软件版本、和系统架构。python安装rknn-toolkit2。

2025-08-07 17:36:43 733

原创 【Linux】在Arm服务器源码编译onnxruntime-gpu的whl

官方文档和讨论指出:在 JetPack 5.x (Ubuntu 18.04/20.04) 上编译时,GCC 必须 ≥10 (JetPack 6 对应 Ubuntu 22.04,自带 GCC11+)。也就是说,最简单的解决方案是升级到 JetPack 6 (Ubuntu 22.04/GCC11) 或手动安装较新版本的 GCC(如通过 sudo apt install gcc-11 g+±11 并更新 alternatives)。手动下载,并放到指定位置,再重新执行编译指令。./bulid.sh的参数。

2025-05-12 11:44:25 1691 1

原创 【python】如何将python程序包交叉编译为cpython的库

python程序在发布时,往往会打包为cpython的库,并且根据应用服务器的不同架构(x86/aarch64),以及python的不同版本,封装的输出类型也是非常多。以编译目标为aarch64+python3.8为例。首先,了解应用服务器的结构,linux在终端输入。确定是x86还是aarch64。

2025-04-25 18:10:12 713

原创 Dify添加ollama插件

dify安装完成后,网页输入:http://localhost/install。然后选择"模型供应商",待配置中已经存在ollama。然后选择"模型供应商",然后选择dify市场。安装完成后,点击右上角头像,选择"设置"3. dify市场搜索ollama。点击下拉菜单,然后选择本地插件按钮。2.点击右上角头像,选择"设置"选择下载图标,不用选择安装图标。选择之前下载好的插件。

2025-04-12 18:58:37 4648 6

原创 k8s的容器操作指令

是一个 Docker 命令,用于在指定的 Docker 容器中启动一个交互式的 Bash 终端。以下是对这个命令的详细解释,包括它的组成部分、使用场景和注意事项。以下是对这个命令的详细解释,包括它的组成部分、使用场景和一些扩展用法。当你需要进入 Kubernetes 集群中的某个 Pod 来进行调试、查看日志、运行命令等操作时,可以使用这个命令。以下是对这个命令的详细解释,包括它的常用选项和输出格式。当你需要进入一个正在运行的 Docker 容器内部进行调试、查看日志、运行命令等操作时,可以使用这个命令。

2025-04-01 17:12:41 1284

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除