自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(516)
  • 资源 (1)
  • 收藏
  • 关注

原创 工业机器视觉软件框架源码汇总目录【附下载链接】

类似EV,海康VM,康耐视VIDI和康耐视Visionpro等工业机器视觉软件框架源码汇总目录【附下载链接】

2025-03-28 09:03:37 3222 4

原创 yolo数据集汇总目录,yolov5/yolov8/yolo11目标检测实战源码案例汇总目录【附下载链接】【持续更新中】

yolo数据集汇总目录,yolov5/yolov8/yolo11目标检测实战源码案例汇总目录【附下载链接】

2025-03-27 13:38:08 1560

原创 YOLO11实战源码案例汇总目录【持续更新中】

YOLO11实战源码案例汇总目录

2025-03-20 08:48:51 1349

原创 基于YOLO11深度学习的耳机识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的耳机识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2026-02-09 09:44:48 1042

原创 基于YOLO11深度学习的笔记本电脑识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的笔记本电脑识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2026-02-09 09:42:51 930

原创 基于YOLO11深度学习的手机识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的手机识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2026-02-06 11:07:58 777

原创 基于YOLO11深度学习的厨房食品识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的厨房食品识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2026-02-06 11:06:04 1079

原创 基于YOLO11深度学习的衣物识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的衣物识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2026-02-05 09:10:43 859

原创 基于YOLO11深度学习的书本识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的书本识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2026-02-05 09:09:44 761

原创 基于YOLO11深度学习的鞋子识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的鞋子识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2026-02-04 13:34:00 713

原创 基于YOLO11深度学习的家庭常见物品识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的家庭常见物品识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2026-02-04 13:24:51 843

原创 基于YOLO11深度学习的蔬菜识别检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的蔬菜识别检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-12-26 08:52:18 1331

原创 基于YOLO11深度学习的人体坐姿检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的人体坐姿检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-12-26 08:50:55 735

原创 基于YOLO11深度学习的抽烟识别检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的抽烟识别检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-12-25 08:46:18 850

原创 基于YOLO11深度学习的摆摊识别检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的摆摊识别检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-12-25 08:43:55 1120

原创 基于YOLO11深度学习的电梯内车辆识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的电梯内车辆识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-11-10 14:29:19 1126

原创 基于YOLO11深度学习的电动车头盔检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的电动车头盔检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-11-10 14:22:32 1081

原创 【三轴涂胶软件】基于C#+WPF开发的三轴涂胶软件,已在客户现场正常生产,全套源码,开箱即用

【三轴涂胶软件】基于C#+WPF开发的三轴涂胶软件,已在客户现场正常生产,全套源码,开箱即用

2025-11-07 11:07:43 983

原创 【通用视觉软件框架】基于Labview开发的视觉框架软件,全套源码,开箱即用

【通用视觉软件框架】基于Labview开发的视觉框架软件,全套源码,开箱即用

2025-11-07 09:02:26 1317

原创 【机器视觉通用检测框架】基于VS2019 C#+VisionPro9.0开发的视觉框架软件,全套源码,开箱即用

【机器视觉通用检测框架】基于VS2019 C#+VisionPro9.0开发的视觉框架软件,全套源码,开箱即用

2025-11-06 09:25:54 1443

原创 【通用视觉框架】基于C#+VisionPro开发的视觉框架软件,全套源码,开箱即用

【通用视觉框架】基于C#+VisionPro开发的视觉框架软件,全套源码,开箱即用

2025-11-06 09:17:10 1103

原创 【通用视觉框架】基于C#+Winform+OpencvSharp开发的视觉框架软件,全套源码,开箱即用

【通用视觉框架】基于C#+Winform+OpencvSharp开发的视觉框架软件,全套源码,开箱即用

2025-11-05 08:51:58 1459

原创 【BZ运动控制框架】基于C#开发的运动控制框架软件,稳定性超强,全套源码,开箱即用

【BZ运动控制框架】基于C#开发的运动控制框架软件,稳定性超强,全套源码,开箱即用

2025-11-05 08:45:34 1292

原创 基于YOLO11深度学习的半导体晶圆外观缺陷检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的半导体晶圆外观缺陷检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-10-24 14:03:42 1029

原创 基于YOLO11深度学习的手语识别检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的手语识别检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-10-24 13:56:09 1241 10

原创 基于YOLO11深度学习的人流量检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的人流量检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-10-15 17:59:46 809

原创 基于YOLO11深度学习的城市道路交通识别检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的城市道路交通识别检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-10-15 11:26:37 1038

原创 基于YOLO11深度学习的光伏面板红外图像热斑缺陷检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的光伏面板红外图像热斑缺陷检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-09-26 11:17:38 1004

原创 基于YOLO11深度学习的人爬墙识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的人爬墙识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-09-19 16:35:48 1096

原创 基于YOLO11深度学习的鲜花品种识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的鲜花品种识别系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-09-18 16:05:15 1211

原创 基于YOLO11深度学习的施工安全检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的施工安全检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-09-18 14:11:26 984

原创 【3D点云测量视觉软件】基于HALCON+C#开发的3D点云测量视觉软件,全套源码+教学视频+点云示例数据,开箱即用

【3D点云测量视觉软件】基于HALCON+C#开发的3D点云测量视觉软件,全套源码+教学视频+点云示例数据,开箱即用

2025-09-17 16:05:26 1206

原创 【AOI基板外观缺陷检测软件】基于Halcon+C#开发的AOI基板外观缺陷检测软件,全套源码,开箱即用

【AOI基板外观缺陷检测软件】基于Halcon+C#开发的AOI基板外观缺陷检测软件,全套源码,开箱即用

2025-09-17 15:33:27 1559

原创 【3D通用视觉框架】基于Qt5开发的3D视觉框架软件,纯底层,全套源码,开箱即用

【3D通用视觉框架】基于Qt5开发的3D视觉框架软件,纯底层,全套源码,开箱即用

2025-09-02 10:51:40 1795

原创 【通用视觉框架】基于Python+OpenCV+PyQt5开发的视觉框架软件,全套源码,开箱即用

【通用视觉框架】基于Python+OpenCV+PyQt5开发的视觉框架软件,全套源码,开箱即用

2025-09-02 10:34:21 1604

原创 基于YOLO11深度学习的植物叶片及缺陷检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的植物叶片及缺陷检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

2025-09-01 16:12:01 1251

原创 基于YOLO11深度学习的桥梁缆索吊索缺陷检测系统【Python源码+Pyqt5界面+数据集+安装使用教程+训练代码】【附下载链接】

基于YOLO11深度学习的桥梁缆索吊索缺陷检测系统(带GUI界面)(Python源码+Pyqt5界面+1249张标注好的数据集+安装使用教程+训练好的模型+评估指标曲线+演示图片视频),开箱即用

2025-09-01 13:53:53 930

原创 【运动控制框架】WPF运动控制框架源码,可用于激光切割机,雕刻机,分板机,点胶机,插件机等设备,开箱即用

【运动控制框架】WPF运动控制框架源码,可用于激光切割机,雕刻机,分板机,点胶机,插件机等设备,开箱即用

2025-08-05 16:14:03 1333

原创 【机器视觉工具箱】集成了相机,镜头和光源选型,视觉飞拍选型,旋转中心计算,modbus/网口/串口等机器视觉常用的功能模块,开箱即用

【机器视觉工具箱】集成了相机,镜头和光源选型,视觉飞拍选型,旋转中心计算,modbus/网口/串口等机器视觉常用的功能模块,开箱即用

2025-08-05 14:37:56 1526

原创 【通用视觉框架】基于QT+Halcon开发的流程拖拽式通用视觉框架软件,全套源码,开箱即用

【通用视觉框架】基于QT+Halcon开发的流程拖拽式通用视觉框架软件,全套源码,开箱即用

2025-08-01 16:05:57 1567 3

基于Python+Tkinter开发的GUI应用程序,提供手机状态实时监控(基于apispace校验状态,检测结果,枚举值: 0:空号 1:实号 2:停机 3:库无 4:沉默号 5:风险号)(源码)

基于Python+Tkinter开发的GUI应用程序,提供手机状态实时监控(基于apispace校验状态,检测结果,枚举值: 0:空号 1:实号 2:停机 3:库无 4:沉默号 5:风险号)(源码)、充值管理及数据可视化功能 打包方法 pyinstaller --onefile --noconsole --name "MyApp" mobile-status-monitoring.py

2026-03-18

基于火山引擎+Python 开发的的 AI 短剧自动生成流水线 输入一段剧本描述,自动完成剧本分析、素材生成、分镜设计、帧生成、视频生成、后期合成,输出完整短剧视频 (源码+教程)

基于火山引擎+Python 开发的的 AI 短剧自动生成流水线。输入一段剧本描述,自动完成剧本分析、素材生成、分镜设计、帧生成、视频生成、后期合成,输出完整短剧视频。(源码+教程) 架构 用户输入(一句话/完整剧本 + 风格预设) ↓ pipeline/main.py(主控流程 + 检查点断点续跑) ↓ [阶段1] ScriptAnalyzer → 豆包 LLM 分析剧本,提取人物/场景/英文生图 Prompt [阶段2] AssetGenerator → Seedream 文生图,并发生成人物/场景参考图 [阶段3] StoryboardDesigner → 豆包 LLM 设计逐镜头分镜脚本(JSON 结构化) [阶段4] FrameGenerator → Seedream 图生图,帧链机制生成首/末帧 [阶段5] VideoGenerator → Seedance 图生视频,双帧控制 + 并发生成 [阶段6] VideoComposer → FFmpeg 拼接 + BGM 混音 + 字幕 + 制作报告 ↓ out/001/final_drama.mp4 技术栈 功能 使用服务/工具 LLM(剧本分析/分镜设计) 火山引擎豆包 Doubao (Ark SDK) 文生图 / 图生图 火山引擎即梦 Seedream(5.0 → 3.0 自动降级) 图生视频 火山引擎即梦 Seedance(1.5-pro 双帧 → 1.0-lite 自动降级) 提示词模板 YAML + Jinja2 渲染 视频合成 FFmpeg(h264_nvenc + AAC)

2026-03-17

基于Dart开发的故事地图app,可以再地图上绘制故事封面和坐标,绘制故事路线,发布文章、视频等,im聊天功能,ai聊天功能 (源码+教程)

基于Dart开发的故事地图app,可以再地图上绘制故事封面和坐标,绘制故事路线,发布文章、视频等,im聊天功能,ai聊天功能。(源码+教程)

2026-03-16

基于YOLO+FastAPI+Vue3开发的铁路轨道故障检测系统(源码+教程)

基于YOLO+FastAPI+Vue3开发的铁路轨道故障检测系统(源码+教程) 1. 技术栈介绍 1.1 后端技术栈 Python 3.12: 主要开发语言 FastAPI: Web后端框架,提供高性能的API服务 SQLAlchemy: ORM库,用于数据库操作 PyQt5: 桌面端GUI框架 Ultralytics YOLO: 目标检测模型库,支持YOLO11和RT-DETR模型 OpenCV: 图像处理库,用于视频处理和检测结果可视化 Torch: 深度学习框架,YOLO和RT-DETR的底层依赖 1.2 前端技术栈 Vue 3: 前端框架,使用Composition API Element Plus: UI组件库,提供美观的界面元素 Axios: HTTP客户端,用于与后端API通信 ECharts: 数据可视化库,用于展示训练指标和检测结果 1.3 数据库 SQLite: 轻量级嵌入式数据库,用于本地开发和桌面端 支持PostgreSQL/MySQL: 可配置为使用更强大的数据库系统 2. 系统介绍 2.1 系统架构 Web端: 基于FastAPI的后端 + Vue 3的前端 桌面端: 基于PyQt5的GUI + 本地后端服务 模型服务: 共享的模型加载和预测逻辑 2.2 核心功能 实时检测: 通过摄像头实时检测轨道故障 图片检测: 上传单张或批量图片进行故障检测 视频检测: 上传视频文件进行故障检测 模型训练: 基于自定义数据集训练故障检测模型 模型管理: 管理不同版本的模型,设置默认模型 检测历史: 记录和查询检测结果历史 工单管理: 基于检测结果创建和处理维修工单 2.3 支持的模型 YOLO11: 最新的YOLO系列目标检测模型 RT-DETR: 实时DETR目标检测模型,支持rtdetr-l.pt和rtdetr-x.pt权重

2026-03-11

基于 Python+Flask+SQLite开发的非前后端分离族谱系统,支持姓名定位亲属、多族谱管理,部署简单、代码易二次开发,核心提供模糊查询、亲属递归展示等功能 (源码+教程)

基于 Python+Flask+SQLite开发的非前后端分离族谱系统,支持姓名定位亲属、多族谱管理,部署简单、代码易二次开发,核心提供模糊查询、亲属递归展示等功能。(源码+教程) 技术栈 模块 技术 说明 API 后端 Express + TypeScript REST API、JWT 认证、文件上传 数据库 better-sqlite3 高性能同步 SQLite 公共前端 Nuxt 3 + Vue 3 SSR/SSG/ISR,SEO 友好,PWA 管理后台 Vue 3 + Element Plus SPA,独立构建 包管理 pnpm workspace Monorepo

2026-03-13

基于Arduino Uno R3单片机开发的可以智能跟随目标移动,自主避障以及实现语音可控的小车 该机器人能够跟随人类,并且能够避免穿过其行进路线的其他人或动物的干扰 (源码+教程)

基于Arduino Uno R3单片机开发的可以智能跟随目标移动,自主避障以及实现语音可控的小车。该机器人能够跟随人类,并且能够避免穿过其行进路线的其他人或动物的干扰。(源码+教程) 应用场景 我们的目标是让老年人、医疗中心或残疾人从这个自动化机器人中受益。这个机器人既可以作为一个能够承载高达20公斤重量的行李搬运器,也可以充当购物车。在医疗中心,它可以作为跟随护士行动的轮椅,或者作为应急病床为残疾人服务。 引言和目标 这是一款四轮行李搬运机器人,它能够自动模仿人类的一些动作和功能,例如跟随人类前后左右移动。它可以在一定距离内跟随人,同时避免障碍物。每个人都希望少携带行李,因为这样会更舒适,但有时在长途旅行中,我们别无选择,只能携带大型、沉重的行李。一个无需控制器就能携带商品并跟在人后面行走的机器人会非常实用。 使用说明 有3个具有不同用途的传感器。超声波传感器用于检测距离范围,以便向控制器发出前后移动及加速的指令。另外两个HJ-IR2传感器检测用于途中的障碍物以及控制向后移动。 当前方距离大于45厘米时,小车会调用一个函数,递归地检测左侧、前方,然后是右侧,直到检测到距离小于50厘米。当距离条件满足时,它会调用前进函数,首次加速,然后继续以恒定速度跟随人类。如果人类再次向左或向右移动,机器人将停止,并检测左、前、右方向,以重新捕捉到人类。 此处只提供小车的基础外形,有其他需求的请自行diy小车外观。 由于LD3320的引入,此项目还需要安装keil4、stc-isp-15xx-v6.86I、串口调试助手等程序与软件。

2026-03-12

基于Isaac Lab开发的人形机器人双臂操作研究平台,通过行为克隆从视觉与本体感知中学习协调抓取策略,支持 RGB 视觉引导的双手物体抓取,并为视觉语言模型(VLM)集成预留接口(源码)

基于 Isaac Lab 开发的人形机器人双臂操作研究平台,通过行为克隆从视觉与本体感知中学习协调抓取策略,支持 RGB 视觉引导的双手物体抓取,并为视觉语言模型(VLM)集成预留接口(源码),旨在推动具身智能在通用操作任务中的发展。

2026-03-10

基于STM32单片机开发的智能台灯系统,融合手表,手表具有心率测算,计步功能(源码)

基于STM32单片机开发的智能台灯系统,融合手表,手表具有心率测算,心率测算(源码)

2026-03-09

基于Yolo开发的硬币检测与识别,用于硬币识别与计数 通过对训练好的 YOLO 模型进行微调,能够实现在实时视频流中对硬币的检测、分类和计数 (源码+模型+教程)

基于Yolo开发的硬币检测与识别,用于硬币识别与计数。通过对训练好的 YOLO 模型进行微调,能够实现在实时视频流中对硬币的检测、分类和计数。(源码+模型+教程) 核心功能: 模型训练:通过对特定数据集进行训练,生成适用于硬币检测的自定义模型。 实时视频流检测:通过从摄像头获取实时视频流,对每一帧进行目标检测。 图片检测:对单张图片进行目标检测,绘制检测框并统计每种硬币的数量和总值。 模型评估:通过验证数据集评估模型性能,输出关键的评估指标。

2026-03-06

基于树莓派5+Python开发的实时手势的智能小车自动控制系统,用其控制树莓派的智能小车,并实现手势控制(源码+教程)

基于树莓派5+Python开发的实时手势的智能小车自动控制系统,用其控制树莓派的智能小车,并实现手势控制(源码+教程) 系统架构 硬件组成 核心板:树莓派 (Raspberry Pi) 4B 或 5 。 传感器:USB 摄像头或树莓派官方摄像头 ;扩展超声波传感器及 MPU6050 。 动力系统:直流减速电机、L298N 或 TB6612FNG 电机驱动模块、小车底盘 。 电源:配套电源系统 。 软件框架 系统采用“感知-决策-控制”一体化设计 : 图像采集与预处理:实时获取视频流 。 手部关键点检测:基于 MediaPipe 提取 21 个手部关键点坐标 。 基于规则的手势分类器:根据关键点间的几何关系(距离、角度)定义手势逻辑 。 电机控制与信号生成:将手势指令映射为 PWM 信号驱动电机 。 核心功能 实时手势识别:稳定识别前进、后退、左转、右转、停止等 5 种以上手势,识别准确率高于 95% 。 +2 超低延迟:通过多线程编程优化,端到端控制延迟控制在 200ms 以内 。 +1 性能平衡:针对树莓派计算资源进行了算法轻量化调整,确保帧率不低于 15fps 。 +1 智能交互扩展:支持通过 GPIO 输出音乐,或通过 WiFi 连接终端发出信号 。 +1 实施计划 第一阶段:硬件平台搭建与基础运动控制实现 。 +1 第二阶段:MediaPipe 模型部署与 5-7 种特定手势算法开发 。 +1 第三阶段:系统深度集成与资源调度优化 。 +1 第四阶段:全面功能测试与鲁棒性验证(光照、背景等) 。

2026-03-05

基于YOLO开发的完整训练解决方案 系统支持灰度图(Gray16)和彩色图(RGBA32)两种图像格式的训练,提供多种优化器选择,并配备现代化的 Web UI 界面进行实时训练监控和管理(源码+文档)

基于YOLO开发的完整训练解决方案。系统支持灰度图(Gray16)和彩色图(RGBA32)两种图像格式的训练,提供多种优化器选择,并配备现代化的 Web UI 界面进行实时训练监控和管理(源码+文档) 功能概览 模块说明 多格式训练 Gray16 / RGBA32 两套脚本与优化器配置(Adam、AdamW、SGD、RAdam 等) 训练监控 Web UI 实时展示训练状态、损失、mAP、图表 数据集管理 上传 ZIP、自动拆分(7:2:1 / 8:2)、历史备份与恢复、数据集别名 协作标注 内置多人标注工具、房间管理、Socket.IO 实时同步 模型测试 上传图片/选择权重进行推理、导出 ONNX 等 训练配置 可视化选择优化器与训练参数 AI 助手 对接本地 Ollama(如千问),可选联网搜索 模型评估 一键分析训练结果并给出质量评估 环境要求 Python 3.8 ~ 3.11(推荐 3.10) Node.js 16+(用于 web-ui 前端) CUDA 11+(可选,GPU 训练) 若使用 AI 助手:本地已安装并运行 Ollama,并拉取对应模型(如 qwen3:8b)

2026-03-04

基于深度学习(YOLOv8)开发的玻璃基面缺陷检测系统,包含前后端完整的功能实现 支持单图检测、批量检测、手动标注修正以及检测历史管理 (源码+教程)

基于深度学习(YOLOv8)开发的玻璃基面缺陷检测系统,包含前后端完整的功能实现。支持单图检测、批量检测、手动标注修正以及检测历史管理。(源码+教程) 核心功能 单图检测:上传单张玻璃图片,自动识别划痕(Line)、点状(Dot)、崩边(Chip)等缺陷。 手动标注:支持在检测结果上进行二次手动框选标注,修正漏检区域。 结果合成:手动标注后可保存为“最终检测结果”,后端会自动合成标注框并生成最终图片。 批量检测:支持多文件同时上传并自动列队处理。 历史记录:管理所有已完成的检测任务,支持查看详情、预览合成图。 统计面板:实时统计系统检测数、手动标注数及平均可信度。 技术栈 前端:Vue 3, Vite, Element Plus, Pinia, Canvas API 后端:Flask, SQLAlchemy (SQLite), OpenCV 算法:YOLOv8 (Ultralytics) 部署:支持 Git 版本管理,内置 .gitignore 配置

2026-03-03

基于深度学习的智能视频处理系统,系统结合了传统计算机视觉和先进的深度学习技术,能自动检测并提取视频中的精彩片段,生成高质量的视频集锦(Vlog),为用户提供高效、智能的视频内容分析服务 (源码+文档)

基于深度学习的智能视频处理系统,系统结合了传统计算机视觉和先进的深度学习技术,能自动检测并提取视频中的精彩片段,生成高质量的视频集锦(Vlog),为用户提供高效、智能的视频内容分析服务。(源码+文档) 核心功能 智能视频分析 场景变化检测:自动识别视频中的场景切换点 运动强度分析:检测视频中的运动活跃度 人物检测:结合传统方法(OpenCV)和深度学习(YOLOv8)进行人物识别 对象检测:使用深度学习模型识别视频中的各类物体 人脸表情分析:基于轻量级模型分析视频中人物的情绪变化 音频特征分析:提取音频信号中的关键特征,识别语音、音乐、掌声等事件 高光时刻提取 智能筛选:根据场景变化、人物出现、运动强度、音频事件等多维度综合评分 时间轴标注:自动标记精彩片段的起止时间 置信度评分:为每个高光片段提供质量评分 严格去重:智能合并重叠或相近的高光片段 多种检测方式:支持基于YOLO、音频、表情、时间等多种检测方法 Vlog自动生成 智能片段选择:自动选择最优片段组合 多种生成策略:支持平滑转场、精华集锦、智能组合等多种生成方式 时间线优化:确保生成内容覆盖完整、时间线合理 转场效果:添加淡入淡出等平滑转场效果 音频处理:保持原始音频或添加背景音乐 缩略图生成:为每个片段自动生成预览图 技术特性 多模型支持:支持YOLOv8等主流深度学习模型 GPU加速:支持CUDA GPU加速,大幅提升处理速度 并行处理:支持视频分段并行处理,提高效率 配置灵活:提供丰富的参数配置选项 易于集成:提供RESTful API接口 多平台支持:支持B站等主流视频平台链接下载

2026-03-02

基于Python开发的专业液冷机通信控制软件,采用 Python 开发,提供直观的图形用户界面,支持通过串口与各种液冷机设备进行通信,支持多种打包方式,适用于不同操作系统平台 (源码+教程)

基于Python开发的专业液冷机通信控制软件,采用 Python 开发,提供直观的图形用户界面,支持通过串口与各种液冷机设备进行通信,支持多种打包方式,适用于不同操作系统平台。(源码+教程) 功能特性 串口通信管理:自动检测和配置串口设备 协议解析:支持多种液冷机通信协议(TCL、TF等) 数据记录:实时数据记录和日志管理 图形界面:基于Tkinter的现代化用户界面 配置管理:灵活的配置文件系统 跨平台支持:Windows、macOS、Linux全平台兼容 开发环境 系统要求 Python 3.8+ Windows 10+/macOS 10.14+/Linux (Ubuntu 18.04+) 安装依赖 # 创建虚拟环境 python -m venv venv source venv/bin/activate # Linux/macOS # venv\Scripts\activate # Windows # 安装依赖 pip install -r requirements.txt 开发运行 python main.py 打包配置 打包配置位于 script/build_config.json,支持以下选项: 应用名称和版本:可自定义应用名称和版本号 图标文件:支持平台特定图标格式 控制台选项:可选择是否显示控制台窗口 数据文件:自动包含配置文件和资源 模块包含:智能检测项目模块依赖

2026-02-28

基于C++开发的工业级+消费级一体化飞控系统,支持多机型、多作业场景差异化部署,具备工业级鲁棒性、安全冗余及量产适配能力 (源码+文档)

基于C++开发的工业级+消费级一体化飞控系统,支持多机型、多作业场景差异化部署,具备工业级鲁棒性、安全冗余及量产适配能力。(源码+文档) 本工程为农林植保+吊装作业核心适配的工业级无人机飞控与作业管理系统,基于C++端侧轻量化开发(无第三方依赖),配套Python调试/仿真脚本,支持平滑拓展至巡检、测绘等全工业无人机场景及航拍摄影类消费无人机场景。系统集成多传感器融合飞控、作业场景专属控制、全链路安全防护、AI轻量化融合能力,支持ARM64/x86端侧部署,兼顾工业作业的高精度、高稳定性、高安全性与场景拓展的低耦合、高复用,核心指标。 核心特性 多机型适配:consumer/industrial_entry/industrial_advance/industrial_high-end 多作业场景:核心(植保/吊装)、拓展(巡检/测绘)、消费级(航拍/娱乐) 工业级安全:紧急避障、冗余安全、物理兜底、安全审计 轻量化部署:适配ARM64/x86_64,仅调试模块依赖基础Python库 工程化适配:差异化编译、一键部署、版本回滚,配套完整工具链 环境要求 操作系统:Linux(Ubuntu 18.04+/Debian 10+) 架构:ARM64、x86_64 C++标准:C++17 CMake:≥3.16 Python(仅调试):≥3.8

2026-02-27

基于Vision Transformer(VIT)开发的细胞分割系统,该系统能够准确分割组织切片图像中的细胞核,并识别其类型,支持多种数据集,包括PanNuke和MoNuSeg(源码+教程)

基于Vision Transformer(VIT)开发的细胞分割系统,该系统能够准确分割组织切片图像中的细胞核,并识别其类型,支持多种数据集,包括PanNuke和MoNuSeg(源码+教程) 项目概述 SparseSwinCell是一个基于Vision Transformer的细胞分割系统,以Swin Transformer V2为backbone,并融入了多种稀疏VIT机制。该系统能够准确分割组织切片图像中的细胞核,并识别其类型,支持多种数据集,包括PanNuke和MoNuSeg。 项目包含完整的训练、评估和推理流程,支持从头训练、断点续训和超参数扫描,提供了多种模型变体以适应不同的应用场景。 技术栈 深度学习框架: PyTorch 计算机视觉库: torchvision, OpenCV 模型架构: Swin Transformer V2, SparseSwinCell, 稀疏VIT 数据集: PanNuke, MoNuSeg 损失函数: BCEWithLogitsLoss, Focal Loss 优化器: AdamW 学习率调度: CosineAnnealingLR 混合精度训练: AMP

2026-02-26

基于YOLO11+Python+FastAPI+Vue3开发的铁路轨道故障检测系统,后端采用FastAPI,前端采用Vue3(源码+文档)

基于YOLO11+Python+FastAPI+Vue3开发的铁路轨道故障检测系统,后端采用FastAPI,前端采用Vue3(源码+文档) 1. 技术栈介绍 1.1 后端技术栈 Python 3.12: 主要开发语言 FastAPI: Web后端框架,提供高性能的API服务 SQLAlchemy: ORM库,用于数据库操作 PyQt5: 桌面端GUI框架 Ultralytics YOLO: 目标检测模型库,支持YOLO11和RT-DETR模型 OpenCV: 图像处理库,用于视频处理和检测结果可视化 Torch: 深度学习框架,YOLO和RT-DETR的底层依赖 1.2 前端技术栈 Vue 3: 前端框架,使用Composition API Element Plus: UI组件库,提供美观的界面元素 Axios: HTTP客户端,用于与后端API通信 ECharts: 数据可视化库,用于展示训练指标和检测结果 1.3 数据库 SQLite: 轻量级嵌入式数据库,用于本地开发和桌面端 支持PostgreSQL/MySQL: 可配置为使用更强大的数据库系统 2. 系统介绍 2.1 系统架构 Web端: 基于FastAPI的后端 + Vue 3的前端 桌面端: 基于PyQt5的GUI + 本地后端服务 模型服务: 共享的模型加载和预测逻辑 2.2 核心功能 实时检测: 通过摄像头实时检测轨道故障 图片检测: 上传单张或批量图片进行故障检测 视频检测: 上传视频文件进行故障检测 模型训练: 基于自定义数据集训练故障检测模型 模型管理: 管理不同版本的模型,设置默认模型 检测历史: 记录和查询检测结果历史 工单管理: 基于检测结果创建和处理维修工单

2026-02-25

基于Python + LangChain + Chroma开发的AI RAG 法律文档问答系统,支持输入法规条文、上传 PDF/Word 文档入库,基于检索增强生成实现精准的法律问题问答(源码+文档)

基于Python + LangChain + Chroma开发的AI RAG 法律文档问答系统,支持输入法规条文、上传 PDF/Word 文档入库,基于检索增强生成实现精准的法律问题问答(源码+文档) 功能概览 1. 爬取法律文档:从国家法律法规数据库抓取条文并写入向量库 2. 上传 PDF/Word:本地文件 → 切片 → 生成 Embedding → 存入 Chroma 3. 检索 TopK:根据问题检索最相关的条文片段 4. 大模型回答:基于检索结果由 LLM 生成答案(RAG) 环境要求 - Python 3.10+ - 建议使用虚拟环境 .venv 安装步骤 1. 创建并激活虚拟环境(在项目根目录执行,.venv 需自行创建): Windows (PowerShell): python -m venv .venv .venv\Scripts\Activate.ps1 Windows (CMD): python -m venv .venv .venv\Scripts\activate.bat Linux / macOS: python3 -m venv .venv source .venv/bin/activate 2. 安装依赖: pip install -r requirements.txt 首次运行会下载 Embedding 模型(all-MiniLM-L6-v2),可能较慢。若出现 SSL/连接 Hugging Face 失败,可在 .env 中设置 EMBEDDING_LOCAL_FILES_ONLY=1 并确保模型已 缓存,或使用镜像:HF_ENDPOINT=https://hf-mirror.com

2026-02-24

基于深度学习开发的体育动作识别与质量评估系统,支持俯卧撑、深蹲、跳绳、跳远、引体向上、仰卧起坐等多种体育运动 (源码+教程)

基于深度学习开发的体育动作识别与质量评估系统,支持俯卧撑、深蹲、跳绳、跳远、引体向上、仰卧起坐等多种体育运动。(源码+教程) 功能特性 动作识别: 自动识别6种体育动作类型 阶段分割: 精确划分动作的各个阶段 质量评估: 多维度评估动作质量(0-100分) 错误检测: 自动检测常见动作错误 实时评估: 支持视频实时分析 支持的运动类型 动作 英文标识 支持功能 俯卧撑 pushup 识别/阶段/评估/错误检测 深蹲 squat 识别/阶段/评估/错误检测 仰卧起坐 situp 识别/阶段/评估/错误检测 跳绳 jump_rope 识别/阶段/评估/错误检测 跳远 long_jump 识别/阶段/评估/错误检测 引体向上 pullup 识别/阶段/评估/错误检测 评估指标 动作识别 准确率: 动作分类准确率 每类准确率: 各动作类型的识别准确率 阶段分割 帧级准确率: 单帧阶段分类准确率 边界F1: 阶段边界检测F1分数 编辑距离: 阶段序列相似度 质量评估 MAE: 与人工评分的平均绝对误差 相关性: 与人工评分的皮尔逊相关系数 错误检测准确率: 多标签分类准确率 可检测的错误类型 俯卧撑 塌腰、撅臀、肘外扩、未达深度、耸肩 深蹲 膝盖内扣、重心前移、未达深度、踮脚尖、圆背 仰卧起坐 借力拉头、臀部离地、未触膝、借助惯性 跳绳 全脚掌落地、膝盖过直、节奏不稳、跳跃过高、手臂外展 跳远 起跳角度过大/过小、未充分摆臂、落地不稳、身体后仰 引体向上 未过杆、未充分下放、身体摆动、蹬腿借力、耸肩 配置说明 编辑 config.yaml 可以自定义: 动作定义: 阶段数、标准参数、错误类型 训练参数: 学习率、批次大小、训练轮数 评估阈值: 各等级分数阈值 路径配置: 数据目录、输出目录

2026-02-12

基于人工智能开发的狼人杀游戏,使用大语言模型(LLM)驱动AI玩家进行游戏 完整的游戏框架,包括法官系统、AI玩家提示词模板、角色策略、API管理界面、语音系统集成和游戏界面显示规则等(源码+教程)

基于人工智能开发的狼人杀游戏,使用大语言模型(LLM)驱动AI玩家进行游戏。完整的游戏框架,包括法官系统、AI玩家提示词模板、角色策略、API管理界面、语音系统集成和游戏界面显示规则等(源码+教程) 核心功能 法官系统:严格按照狼人杀规则主持游戏,控制流程和处理行动 AI玩家:基于提示词系统驱动的AI玩家,具有不同性格和策略 角色策略:针对不同角色(狼人、预言家、女巫、平民等)的详细策略指导 游戏配置:支持9人局和12人局的多种板子配置 API管理:灵活的API配置和分配系统 语音系统:集成多种TTS引擎,支持个性化语音 界面显示:完整的游戏界面显示规则和交互逻辑 游戏记录:全程记录游戏过程,支持生成战报和分析 配置游戏 选择游戏模式:在 src/init/init_config.json 中配置游戏模式和板子 配置AI API:在 src/api/api_config.json 中设置API接口和分配规则 配置语音系统:在 src/voice/voice_config.json 中设置语音引擎和参数 配置界面显示:在 src/ui/ui_config.json 中设置界面显示规则 启动游戏 运行初始化流程 法官介绍游戏规则 进入第一晚 按照游戏流程进行 配置说明 游戏配置 9人标准局:3狼人、3平民、1预言家、1女巫、1猎人 12人狼王守卫场:3狼人、1狼王、4平民、1预言家、1女巫、1猎人、1守卫 12人奇迹商人场:4狼人、4平民、1预言家、1女巫、1守卫、1奇迹商人 AI玩家配置 性格类型:谨慎型、激进型、逻辑型、直觉型、表演型、沉默型 策略倾向:保守、进攻、平衡、随机、学习型 发言风格:根据性格和策略自动调整 API管理 API分配:支持随机分配、手动指定、按性格匹配、学习模式 测试功能:测试连接、示例响应显示、延迟和稳定性监测

2026-02-11

基于python和rust开发的飞机大战类游戏(源码)

基于python和rust开发的飞机大战类游戏(源码) 游戏特色 1920×1080 默认分辨率,自适应屏幕缩放 三种难度模式(简单/普通/困难),动态难度调整 Boost 加速系统:Shift 键激活,能量槽消耗/恢复,270° 弧形赛车仪表盘 UI,难度决定容量 13 种 Buff 系统(含 Boost Recovery 天赋),4 类天赋:生命/攻击/防御/辅助 母舰存档机制:大型主力舰级母舰,爆炸导弹 AoE 攻击(5 目标),出入港双阶段动画,WASD 操控移动 存档完整恢复:玩家位置、生命、Buff 等级与效果全量保存与恢复 8 种敌人移动模式(直线、正弦、锯齿、俯冲、悬停、螺旋、噪声、攻击型),Rust 批量加速 Boss 战:4 阶段全向移动(巡逻/扫屏/悬停/追向),多阶段攻击,登场强制清场 Boss 逃跑计时器:面板式倒计时,颜色随时间渐变(钢蓝→琥珀→红),脉冲闪烁警告 受击清弹:玩家被击中触发无敌时自动清除全屏敌方弹幕 里程碑奖励系统,定期触发 buff 选择 集成 HUD 面板(可折叠),电池式血量指示器 全屏模式(FULLSCREEN),冷钢蓝军事 cockpit 视觉主题 技术架构 核心架构 Scene Pattern: 基于场景的架构,支持场景切换和状态保存 Manager Pattern: 各子系统独立管理器(生成、碰撞、子弹、Boss 等) Observer Pattern: 事件总线用于母舰停靠等跨系统通信 技术栈 Python 3.x + Pygame + Pillow Rust (PyO3 0.22 / maturin 1.0) — airwar_core 原生扩展模块

2026-04-28

基于 YOLO11 + FastAPI + Vue3 开发的工业级布料质检平台, AI 视觉检测与智能分析(源码)

基于 YOLO11 + FastAPI + Vue3 开发的工业级布料质检平台, AI 视觉检测与智能分析(源码)

2026-04-21

基于K-means分割+Python+OpenCV+Flask开发的微信小程序,机器视觉林木胸径测量系统(源码+教程)

基于K-means分割+Python+OpenCV+Flask开发的微信小程序,机器视觉林木胸径测量系统(源码+教程) 传统的林木胸径(DBH)测量需要人工用卷尺或测径器在树干1.3米高度处实地测量,一片林地上百棵树测下来耗时费力,特别是在地形复杂、树木密集的林区更加困难。本项目利用计算机视觉技术,通过手机拍摄树干照片,结合相机标定和图像分割算法自动计算树木胸径,实现非接触式测量。 痛点与目的 问题:人工测量林木胸径效率低、劳动强度大,在大面积林地清查时成本很高 方案:微信小程序拍照 → Python 后端处理图像 → 相机标定获取真实尺度 → K-means 分割树干区域 → 计算胸径 效果:用手机拍一张照片即可估算树木胸径,减少实地测量工作量 核心功能 微信小程序前端:拍照上传树干图片 相机标定:棋盘格标定获取相机内参,消除镜头畸变 图像分割:K-means 聚类分割树干区域 胸径计算:基于标定参数将像素距离转换为真实物理尺寸 Web 可视化:Flask 后端提供结果展示页面 使用方法 后端启动 cd GraduationProject pip install flask opencv-python numpy python app.py 微信小程序 用微信开发者工具打开 TreeMeasure/ 目录

2026-04-20

基于Python深度学习开发的人体动作识别框架,能够有效捕捉人体动作的空间特征和时间动态 项目支持多种主流的点云处理模型作为基线对比,并提供完整的训练、测试和可视化流程 (源码+教程)

基于Python深度学习开发的人体动作识别框架,能够有效捕捉人体动作的空间特征和时间动态。项目支持多种主流的点云处理模型作为基线对比,并提供完整的训练、测试和可视化流程。(源码+教程) 核心特点 多模态数据支持:支持毫米波雷达、深度相机等多种传感器产生的点云数据 高效架构设计:采用密集连接和注意力机制,在精度和效率之间取得平衡 丰富的基线模型:集成 20+ 种主流点云处理模型用于对比 完整的实验流程:提供数据预处理、训练、测试、可视化一体化解决方案 技术栈 深度学习框架:PyTorch 2.5.0 + torchvision 0.20.0 编程语言:Python 3.10 环境管理:Conda 25.3.1 CUDA 版本:11.8 主要依赖: PyTorch 2.5.0 / torchvision 0.20.0 NumPy / SciPy einops(张量操作) thop(模型复杂度分析) lmdb(高效数据存储) matplotlib / seaborn(可视化) PyYAML(配置管理) ONNX 1.17.0(模型导出) 功能特性 支持的模型 类别 模型 SleepNet SleepNet (核心模型) Point3D PointNet, PointNet2, PointNext, PointMLP, PointCNN, DGCNN, PointConv, PointVector Point4D MeteorNet, PointLSTM, PSTNet, PSTNet2, P4Transformer, PSTTransformer, SequentialPointNet, Mamba4D Efficient MobileNet, DenseNet, GhostNet, SHViT, SwiftFormer, EfficientViT, EfficientViM

2026-04-15

基于 YOLOv8 开发的深度学习实时鸽子检测系统(数据集+训练好的模型+源码)支持 GUI 界面、图片检测、摄像头实时检测、历史记录和多格式导出

yolo-鸽子/ ├── data.yaml # YOLO 数据集配置文件 ├── classes.txt # 类别名称列表 ├── yolov8n.pt # YOLOv8 Nano 预训练模型 ├── train.py # 模型训练脚本 ├── pigeon_gui.py # PyQt5 GUI 应用 (主程序) ├── webcam_detect.py # Webcam 实时检测脚本 (命令行版) ├── test_model.py # 模型测试脚本 ├── split_dataset.py # 数据集划分脚本 ├── download_pigeons.py # 图片爬虫脚本 ├── images/ # 原始图片 (100张) ├── labels/ # 原始标签 (100个) ├── train/ # 训练集 (80张) │ ├── images/ │ └── labels/ ├── val/ # 验证集 (20张) │ ├── images/ │ └── labels/ ├── test_results/ # 检测结果保存目录 ├── exports/ # 导出文件保存目录 └── runs/train/ # 训练输出目录 └── pigeon_detect/ └── weights/ ├── best.pt # 最佳模型

2026-04-14

基于TF-IDF算法开发的文档查重系统,支持PDF、Word、TXT等多种格式的相似度检测 (源码+教程)

功能特点 支持PDF、Word和TXT格式文档的查重 基于TF-IDF算法的相似度检测 支持文件上传和文件路径两种查重模式 支持显示相似文档的具体片段对比 技术架构 后端:FastAPI + Scikit-learn + Jieba 数据处理:TF-IDF向量模型 文本提取:PyPDF2、python-docx、jieba分词 算法详解 1. 文本预处理 系统首先对文档进行文本提取和预处理: PDF、Word、TXT文档内容提取 中文分词处理(使用jieba) 停用词过滤(移除虚词、标点符号等无意义词汇) 长度过滤(移除长度≤1的字符) 2. 特征向量化 使用TF-IDF算法将文档转换为向量表示 训练统一的向量器(TfidfVectorizer)确保所有文档在相同特征空间 TF-IDF计算公式:TF-IDF(t,d) = TF(t,d) × IDF(t) TF(t,d):词项t在文档d中的词频 IDF(t):词项t的逆文档频率 IDF(t) = log(总文档数 / 包含词项t的文档数) 3. 分块缓存机制 按文库目录结构实现单文档缓存 每个可读文档生成一个独立的缓存文件,命名格式为:"一级子目录名_文件名_cache.pkl" 查重时逐一比对所有文档缓存文件,解决大规模文库中TF-IDF相似度稀释问题 使用统一的TF-IDF向量器确保向量空间一致性 忽略名为history的文件夹(不区分大小写) 遵循"文库目录扫描与分块缓存规范": 仅扫描一级子目录内的文件 忽略根目录下的文件 忽略二级及更深层级的子目录 4. 相似度计算 使用余弦相似度计算文档间的相似度 余弦相似度公式:cos(θ) = (A·B)/(|A||B|) 基础检测阈值:0.05 对相似度≥0.3的文档提取具体相似文本片段 5. 片段匹配 对相似度≥0.3的文档进行片段提取 使用滑动窗口算法提取相似文本片段

2026-04-13

基于YOLO11开发的多模态实时火焰检测系统,支持视觉、毫米波雷达和热成像三种模态融合,通过RTSP视频流检测火焰,并计算精确位置信息通过SPI发送给驱动控制板 (源码+教程)

基于YOLO11开发的多模态实时火焰检测系统,支持视觉、毫米波雷达和热成像三种模态融合,通过RTSP视频流检测火焰,并计算精确位置信息通过SPI发送给驱动控制板。(源码+教程) 功能 实时RTSP视频流读取和火焰检测 毫米波雷达距离和角度测量 热成像热点检测和温度分析 三模态数据融合算法 精确位置计算 (角度和距离) SPI通信封装数据发送 文件结构 main.py: 主程序 config.py: 配置文件 video_capture.py: 视觉视频流读取模块 detection.py: YOLO检测模块 calculation.py: 多模态位置计算和融合模块 spi_communication.py: SPI通信模块 mmwave_radar.py: 毫米波雷达接口模块 thermal_imaging.py: 热成像接口模块 requirements.txt: 依赖列表 model/smokefire_trained_final.pt: YOLO模型权重文件 安装依赖 pip install -r requirements.txt 配置 编辑 config.py 中的参数: RTSP_URL: 视觉相机视频流地址 THERMAL_RTSP_URL: 热成像相机RTSP地址 MMWave_SERIAL_PORT: 毫米波雷达串口 MODEL_PATH: YOLO模型路径 相机参数: FOV、分辨率等 SPI设备: 根据硬件调整 多模态权重: 视觉、雷达、热成像权重配置 运行 python main.py 多模态融合说明 项目支持三种检测模态: 视觉模态: 使用YOLO检测火焰位置和置信度 毫米波雷达: 提供精确的距离和角度测量 热成像: 检测温度异常区域 融合算法根据各模态的置信度和权重计算最终位置。

2026-04-10

基于Python深度学习开发的数钢管系统,数据标注和训练已经集成到软件中(源码)

基于Python深度学习开发的数钢管系统,数据标注和训练已经集成到软件中(源码)

2026-04-09

基于海康彩色相机+YOLO开发的实时检测系统(源码)

基于海康彩色相机+YOLO开发的实时检测系统(源码) 功能:拍照、录像(含倒计时录像)、实时检测,支持实时曝光调节,默认检测关闭,支持自定义保存路径 所有设置项(曝光、路径、检测开关)已移至“设置”菜单下的对话框中 SDK路径可通过“设置”菜单自定义(需重启)

2026-04-08

基于深度学习多模态融合技术开发的直播间恶意评论与消费风险防控(源码+教程)

功能特点 核心功能 文本风险识别:分析直播话术,识别风险内容 语音风险识别:分析直播音频,识别风险内容 多模态融合分析:结合文本和语音进行综合风险评估 冲动消费预警:监测用户购物行为,预防冲动消费 管理后台:系统管理、用户管理、模型管理等功能 技术特点 多模态融合:结合BERT文本模型和2D-CNN语音模型,通过注意力机制实现跨模态特征融合 实时分析:快速响应的风险识别,支持实时直播场景 智能预警:基于用户行为的智能冲动消费预警 可视化界面:直观的用户界面,易于操作和理解 技术栈 前端 React 18 Vite Axios CSS3 后端 Express.js Node.js SQLite 模型 BERT (文本分类) 2D-CNN (语音特征提取) 跨模态注意力融合

2026-04-07

基于yolov5+ros无人小车开发的无人小车目标跟随系统(源码+教程)

启动 启动顺序 1、程序b最后启动 2、程序d启动完成在启动程序c 3、推荐顺序:<d,c,a,b> 程序a 程序a是项目中的yolo_5目录,我是基于原生的yolo5进行了改装,这个可以运行在pc上,也可以运行在小车上, 1、安装yolo环境 下载完成后先看里面的README装好环境, 测试命令python yolo_5.py,程序运行会把input里的文件处理后放入output中,如果output里有图片生成,那么环境就装好了 2、主文件 跟随项目的启动文件为handle_request_main.py,里面需要进行一定的配置, 主要是本机IP和小车IP,如果都运行在小车上,那设置成一样 frame_size要和程序b发送过来的图片尺寸一致 里面目标跟随逻辑写的是比较简单的,可以去看一看 3、启动 运行程序a python handle_request_main.py 这会启动server和client,等待程序b 程序b 程序b和c都在小车上,我都放在了rokin文件夹,需要把这个文件夹下载到小车上 运行程序b 程序b位于rokin/py3/main.py 比较简单,用python3直接运行就可以了,是单独的一个文件 python main.py 程序c 程序c位于rokin/scripts/turtlebot_teleop_key.py,这是项目里的一个文件,不能单独运行,且名字不能变,如果你精通ros,改了名字在对应配置项里也改掉,让程序运行起来即可 编译项目 整个rokin文件夹要放到ros项目文件夹下的src目录下,这是一个完整的ros项目,不清楚的可以先去了解ros的架构 然后catkin_make编译这个项目(或者是别的编译命令)

2026-04-03

基于PYTHON开发的AD采集数据波形显示(源码)

基于PYTHON开发的AD采集数据波形显示(源码)

2026-04-02

基于YOLO11+BotSort开发的鱼类行为分析与异常检测系统(源码+教程)

项目简介 本项目是一个智能化的鱼类行为监测系统,集成了: YOLOv11:高精度鱼类检测 BotSort:多目标追踪算法 异常行为检测:基于 IoU 的运动状态分析 实时视频处理:摄像头实时监测与视频文件分析 可视化界面:直观的数据展示与图表分析 主要功能 1. 视频上传模块 支持上传视频文件进行离线分析 实时显示处理进度和结果 鱼类统计与异常行为可视化 2. 摄像头监测模块 支持多摄像头选择 实时视频流处理 实时异常检测与告警 3. 配置管理模块 鱼种标签映射配置 检测参数调优 阈值设置管理 技术栈 前端 Vue 3 + Vite Vue Router ECharts (数据可视化) Bootstrap 5 后端 Spring Boot 2.7.14 OpenCV 4.7.0 JavaCV Python (视频处理) 算法 YOLO11 (目标检测) BotSort (多目标追踪) 自定义异常检测算法

2026-03-31

基于Java和python开发的图片仿色系统(源码)

一个基于Web的图像色调提取与风格迁移系统,支持从参考图像中提取色调特征并应用到目标图像。 功能特性 用户认证: 注册、登录、JWT令牌认证 图像管理: 图像上传、存储、删除 色彩特征提取: 自动提取图像的主色调、色彩空间分析、色相/饱和度/亮度统计 色调迁移: 将参考图像的色调应用到目标图像,支持多种处理模式 任务管理: 处理任务创建、状态追踪、历史记录 分享功能: 生成分享链接,支持密码保护和有效期设置 技术栈 后端 Java 17 + Spring Boot 3 MyBatis-Plus (数据库ORM) MySQL 8.0 (数据库) Redis (缓存) 阿里云OSS (对象存储) JWT (身份认证) 前端 Vue 3 + TypeScript Element Plus (UI组件库) Vite (构建工具) Axios (HTTP请求)

2026-03-30

基于FastAPI + YOLO11的RTSP流实时目标检测系统,支持多路并发流处理和多格式视频输出(源码+教程)

基于FastAPI + YOLO11的RTSP流实时目标检测系统,支持多路并发流处理和多格式视频输出。 核心特性 RTSP流管理: 支持最多10路并发RTSP流处理,带分页浏览 实时目标检测: 基于YOLO11的高性能实时检测 多格式输出: MJPEG流(<100ms延迟)、WS-FLV流(0.5-2s延迟) 多窗口播放器: 1/4/9窗口布局,支持每窗口独立流格式切换 文件管理: 上传图片/视频文件,批量检测,进度跟踪 检测记录: 自动保存检测结果图片和元数据,支持批量删除 现代Web界面: 单页应用设计,实时数据刷新,响应式布局 容器化部署: 完整Docker支持,快速构建 REST API: 完整的RESTful API接口 前置要求 Docker部署(推荐) Docker 20.10+ Docker Compose 1.29+ 至少4GB内存 YOLO11模型文件(yolo11n.pt) 本地开发 Python 3.11+ FFmpeg(用于WS-FLV) YOLO11模型文件

2026-03-27

基于Python开发的式3D可视化项目,手势控制3D网络球体,结合了MediaPipe手势识别和OpenGL/Pygame 3D渲染技术,创建了一个由用户手势控制的动态3D网络球体系统 (源码+教程)

文件结构 项目包含三个主要文件,各自负责不同的功能: hands.py:基础手势识别演示 使用MediaPipe识别手部21个关键点 可视化手部骨架和关键点 显示左右手区分和深度信息 适合初学者了解手势识别的基本原理 main.py:绘画功能演示 基于hands.py拓展的手势绘画功能 使用食指指尖轨迹绘制星形图案 握拳手势可擦除画布 增强的手势识别算法和可视化效果 control_sphere.py:完整的3D球体控制系统 结合手势识别和3D渲染技术 实现了旋转、缩放、锁定等高级交互功能 多线程处理确保渲染和识别流畅运行 提供了完整的用户界面和反馈系统 功能特点 实时手势识别:使用MediaPipe识别四种关键手势 手掌张开:控制旋转和缩放 OK手势(拇指和食指形成圈):锁定当前缩放比例 握拳:解除锁定或重置视角 食指指向:预留的特殊功能接口 交互式3D可视化: 多彩小球在3D空间内运动和碰撞 小球之间形成动态连接线 基于物理的碰撞检测与反弹效果 脉动灯光效果增强视觉体验 实时摄像头反馈: 在界面一角显示摄像头画面 可视化手势识别结果 FPS计数器和缩放指示器 环境要求 Python 3.7+ 带摄像头的计算机 良好的照明条件(手势识别效果更佳) 使用说明 手势控制 手掌张开: 左右移动:水平旋转3D球体 上下移动:垂直旋转3D球体 靠近/远离摄像头:缩小/放大视图 OK手势: 保持1秒:锁定当前缩放比例 白色圆圈标记会出现在进度条上,表示已锁定 握拳: 未锁定状态下:重置到默认视角 锁定状态下持续2秒:解除缩放锁定 食指指向: 预留功能,暂未实现 键盘控制 ESC键:退出程序 空格键:切换自动旋转模式 V键:循环切换预设视角

2026-03-25

基于 Python+OpenCV+FFmpeg开发的可见光文件传输实验工程,利用可见光传输信息,包含编码器(发送端)与解码器(接收端)

方案概述 灰度大块差分编码(左亮右暗=1,左暗右亮=0) 3 个标准定位点 + 1 个自定义定位点,支持透视矫正与方向识别 帧内亮度参考块(黑/灰/白)用于动态阈值 分组传输:块级 CRC + Reed-Solomon 外层纠删码 UEP:前 20% 数据使用更强纠错参数 保守三态判决:低置信度位标记为无效,优先避免漏检错误

2026-03-24

基于unity+C#开发的人工智能的生存游戏(源码)

基于unity+C#开发的人工智能的生存游戏(源码)

2026-03-23

基于深度学习开发的智能商品识别系统,通过PyTorch深度学习框架开发,并使用Flask提供Web界面,为用户提供简单直观的交互体验,集成了图像相似性搜索、图像去噪和商品分类三大核心功能(源码+教程)

基于深度学习开发的智能商品识别系统,通过PyTorch深度学习框架开发,并使用Flask提供Web界面,为用户提供简单直观的交互体验,集成了图像相似性搜索、图像去噪和商品分类三大核心功能(源码+教程) 软件架构 1.2核心功能 图像去噪处理:对上传的图像添加随机噪声,并展示去噪前后的对比效果。 商品分类识别:分析上传图像中的商品,自动识别其所属类别。 商品相似度搜索:通过上传图像,系统能够在数据库中找出视觉上最相似的5个商品。 1.3应用场景 该系统适用于电子商务平台、零售业智能化和图像搜索服务等多种场景,可以帮助用户提高图像质量、自动分类并快速检索相似商品。 1.4项目结构 项目由四个主要模块组成: 图像去噪模块(image_denoising) 商品类别判定模块(image_classification) 相似商品检索模块(image_similiarity) Web模块,实现前后端逻辑。 1.4.1图像去噪模块(image_denoising) 该模块负责训练基于自编码器架构的去噪模型 通过学习图像特征重建无噪声图像实现去噪功能 1.4.2图像分类模块(image_classification) 该模块负责训练基于CNN的商品分类模型,能够识别五类商品 基于预标注的数据提取图像特征,发掘图像和分类之间的潜在关联,实现商品分类 1.4.3相似图片检索模块(image_similarity) 该模块负责训练基于自编码器架构的编解码器 通过自编码器提取图像的特征,将自编码器输出的高维向量作为图像特征,存储后作为向量数据库 基于KNN算法提取最近的特征向量,然后通过解码器获取近似图像 1.4.4Web模块 实现了基于Flask的Web后端程序 提供了简洁的前端页面 允许用户上传图像并查看处理结果 支持三种核心功能的交互式演示

2026-03-20

基于 Python + Pygame 开发的星球大战飞机射击游戏,含 Boss 关卡、粒子爆炸特效(源码)

基于 Python + Pygame 开发的星球大战飞机射击游戏,含 Boss 关卡、粒子爆炸特效(源码)

2026-03-19

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除