- 博客(747)
- 资源 (27)
- 收藏
- 关注
原创 【youcans的OpenCV例程300篇】总目录
【youcans 的 OpenCV 例程300篇】总目录转载本系列作品时必须标注以下版权内容:必须标注以下版权内容:youcans@qq.com, 【youcans 的 OpenCV 例程】, https://blog.csdn.net/youcans/category_11459626.html......................................................
2022-06-03 14:33:39
74954
63
原创 【动手学STM32G4】(4)ADC 采集与 DAC 输出
本文介绍了基于STM32G4系列微控制器的ADC采集与DAC输出实验,构建了一个完整的模拟信号闭环处理系统。本文提供了从硬件连接到软件配置的完整指南,帮助开发者快速掌握STM32G4模拟外设的使用方法。
2025-12-16 08:00:00
715
原创 【医学影像 AI】Affective-ROPTester: LLMs的能力和偏差分析在预测 ROP 病变中的应用
本研究构建了首个中文ROP风险预测数据集CROP(993条早产儿入院记录),提出Affective-ROPTester评估框架,探究LLMs在ROP预测中的能力与偏差。研究发现:1)LLMs仅依赖内在知识预测效果有限,引入外部知识可显著提升性能;2)模型存在高估中高风险的固有偏差;3)积极情感框架能有效缓解预测偏差。该研究为医疗AI的风险预测提供了新基准,揭示了情感提示工程在提升诊断可靠性中的重要作用。
2025-12-15 08:00:00
930
原创 【医学影像 AI】MADGNet:用于医学图像分割的模态无关领域可泛化的网络
MADGNet,一种用于医学图像分割的模态无关领域可泛化网络,通过多频率多尺度注意力机制解决现有方法在跨模态泛化中的局限性。包含两个核心模块: 1)MFMSA模块:融合多频率通道注意力与多尺度空间注意力,优化边界特征提取; 2)E-SDM模块:通过集成式深度监督减少上采样中的信息损失。
2025-12-14 08:00:00
1004
原创 【医学影像 AI】FunBench:评估多模态大语言模型的眼底影像解读能力
FunBench 视觉问答基准专为评估多模态大型语言模型(MLLMs)的眼底图像解读能力而设计,其核心特点是四级分层任务架构(模态感知、解剖结构感知、病变分析、疾病诊断)和三种针对性评估模式(基于线性探针的视觉编码器评估、知识提示的语言模型评估、整体评估),数据集涵盖 16,348 张眼底图像和 91,810 个视觉问题
2025-12-13 08:00:00
1125
原创 【动手学UNet】(10)视网膜图像预处理
本文介绍了UNet视网膜图像分割中的预处理方法,重点讲解绿色通道提取和CLAHE增强技术。本文给出了预处理流程和项目结构,通过配置文件控制预处理选项,便于实验对比。该项目采用模块化设计,将预处理逻辑封装在RetinalPreprocessor类中,确保训练和测试时处理一致。这些预处理方法能有效提升模型对细小血管的分割性能。
2025-12-12 08:00:00
1023
原创 【动手学电机驱动】 STM32-FOC(11)ST MCSDK6.0 电机控制软件框架
STM32电机控制软件开发套件(MCSDK)专为STM32微控制器设计,支持磁场定向控制(FOC)和六步控制方法,驱动三相永磁同步电机。MCSDK包含固件库、工作台、控制板管理工具等组件,通过图形界面快速配置电机参数并生成项目文件。其软件架构分为应用程序、UI库、电机控制库等部分,提供完整的API接口和底层驱动支持。该套件适用于STM32全系列MCU,可实现速度环/电流环控制、弱磁控制等核心功能,帮助开发者快速评估和开发电机控制应用。
2025-12-11 08:00:00
1451
原创 YOLOv13 与 DINO ViT 的系统集成
本文介绍了YOLOv13与DINO ViT的系统集成方案。该方案提供125+种模型组合,包含5种YOLOv13尺寸、2种DINO版本和20+种DINO变体,支持单/双精度集成。系统采用模块化架构设计,通过CNN主干网络与DINO3增强模块的协同工作,实现目标检测性能提升。单尺度(P4)方案适合通用场景,双尺度(P3+P4)则适用于复杂多尺度检测。模型库涵盖从Nano到XLarge的不同规模,并提供详细的选择指南,满足从嵌入式设备到高性能计算的各种应用需求。
2025-12-10 11:04:38
630
原创 【动手学STM32G4】(3)上位机实时显示多路波形
摘要: 本文介绍了使用STM32G431开发板通过USB虚拟串口与上位机VOFA+进行实时波形显示的实现方法。(1)解析VOFA+支持的FireWater文本协议和JustFloat二进制协议;(2)详细说明STM32CubeMX工程配置步骤,涵盖时钟设置、LPUART1参数配置及DMA传输设置;(3)提供完整的软硬件环境搭建方案。
2025-12-10 10:24:22
1025
原创 【跟我学YOLO】Mamba-YOLO-World:YOLO-World与Mamba 融合的开放词汇目标检测
Mamba-YOLO-World模型,将状态空间模型(SSM)引入目标检测领域。该模型通过线性复杂度的ODMamba骨干网络替代传统Transformer的自注意力机制,显著降低计算负担,并设计多分支RG模块增强局部特征捕捉能力。实验表明,其轻量版在COCO数据集上推理速度达1.5ms/帧时mAP提升7.5%,且无需预训练即可直接训练。
2025-12-10 08:00:00
1632
原创 【youcans论文精读】Bridged U-net:使用二维桥接U-net进行前列腺分割
本文提出一种改进的2D Bridged U-net架构用于医学图像分割,针对传统U-net在深度训练、激活函数选择和损失函数优化方面的不足进行创新。通过桥接两个U-net网络实现多尺度特征共享,采用拼接方式连接编码-解码层以保持信息流动稳定性。研究同时探讨了ELU与ReLU激活函数的组合使用策略,并提出新型损失函数以解决Dice损失导致的训练振荡问题。
2025-12-09 08:00:00
1569
原创 【动手学STM32G4】(2)USB 虚拟串口通信
详细介绍 STM32G4系列开发板通过USB虚拟串口(VCP)实现通信的方法。(1)USB虚拟串口的工作原理;(2)NUCLEO-G431RB开发板的硬件连接;(3)使用STM32CubeMX创建项目的详细步骤,包括时钟配置、LPUART1参数设置等关键配置项;(4)使用 CubeIDE 编程和调试。该技术为嵌入式系统提供了便捷的调试和通信方案,仅需一根USB线即可实现串口通信功能。
2025-12-09 07:30:00
2295
原创 【CLIP】基于CLIP与伪标签的单阶段零样本目标检测网络
基于CLIP与伪标签的单阶段零样本目标检测网络CLIP-YOLO,通过视觉语言嵌入对齐和通道分组增强坐标注意力模块(CGEC)优化特征表征,并利用CLIP与区域提议网络生成高质量伪标签扩展训练集多样性。(1)单阶段检测框架结合CLIP零样本分类能力;(2)CGEC模块增强特征表示;(3)多模态伪标签生成机制。代码已开源。
2025-12-08 11:02:52
804
原创 【跟我学YOLO】Mamba YOLO:基于状态空间模型的目标检测基线模型
Mamba YOLO目标检测模型,通过状态空间模型(SSM)替代传统Transformer的自注意力机制,显著降低计算复杂度。核心创新包括:1)设计ODMamba主干网络,采用线性复杂度SSM实现高效全局建模;2)提出RG Block模块增强通道信息提取,解决SSM在图像任务中的感受野不足问题;3)构建完整检测框架,包含Simple Stem、PAFPN颈部网络和解耦头部。
2025-12-08 08:00:00
908
原创 【动手学UNet】(9)Unet 项目文档
本项目基于PyTorch实现U-Net视网膜图像分割,包含完整训练/验证/推理流程。采用模块化设计,支持数据加载、模型训练、评估指标计算、可视化及日志记录等功能。核心特性包括:Dice+BCE组合损失、IoU/Dice评估、三连图可视化、Checkpoint管理、TensorBoard日志和统一CLI入口。项目结构清晰,可作为医学图像分割模板扩展使用,适用于灰度/RGB输入,提供断点续训和单图推理能力。
2025-12-07 08:00:00
2459
原创 【动手学UNet】(8)训练日志保存
本文介绍了UNet图像分割模型的训练日志保存功能实现。通过utils/logger.py模块封装了TensorBoard日志记录功能,支持训练过程中的loss和dice指标可视化。文章详细说明了日志记录器的初始化方法、训练步骤和epoch级别的日志记录接口,以及验证集评估结果的记录方式。同时提供了日志目录配置和训练脚本的修改方法,使开发者能够方便地将日志功能集成到UNet训练流程中,便于模型训练过程的监控和分析。
2025-12-06 07:30:00
1150
原创 【动手学UNet】(7)主程序
【动手学UNet】系列教程提供完整的UNet图像分割实现指南,包含7个核心模块:项目创建、数据加载、模型实现、训练、保存/加载、评估和主程序。主程序(main.py)作为统一入口,支持训练、评估和单图推理三种模式,可通过命令行参数灵活配置。训练支持断点续训和烟雾测试;评估可计算Dice/IoU指标并保存结果;单图推理支持原图/真值/预测的三连图展示。
2025-12-05 07:30:00
975
原创 【动手学UNet】(6)模型推理与评估
【动手学UNet】系列教程提供完整的UNet模型实现指南,涵盖项目创建、数据加载、模型训练到推理评估全流程。在模型推理与评估部分(test_unet.py),教程详细介绍了如何加载验证集和训练好的模型权重,计算Dice系数和IoU等关键评估指标,并保存包含原图、真值和预测结果的可视化三连图。该模块支持快速评估模式,便于模型验证和调试,为图像分割任务提供完整的性能评估方案。
2025-12-04 08:00:00
801
原创 【动手学UNet】(5)保存,加载与可视化
本文介绍了UNet图像分割模型的保存、加载与可视化实现。在模型保存与加载部分,通过checkpoint.py模块实现了统一的模型权重、优化器状态和训练轮次的保存与恢复功能,支持断点续训和模型版本管理。可视化模块visualization.py则提供了分割结果的三联图展示功能,能够直观对比原图、真实掩膜和预测结果。文章提供了完整的代码实现和测试验证流程,确保模型状态的正确保存与恢复,为UNet模型的训练、评估和推理提供了完整的工具链支持。
2025-12-03 08:00:00
651
原创 【DeepSeek 论文精读】15. DeepSeek-V3.2:开拓开源大型语言模型新前沿
本文详细解读 DeepSeek-V3.2 技术报告和 API 使用指南。DeepSeek-V3.2 新一代开源大型语言模型在推理能力和工具调用方面实现重大突破,模型已开源并更新至官方应用,为AI社区提供高性能开源选择。
2025-12-02 21:21:27
2070
原创 【youcans论文精读】VM-UNet-V2:面向医学图像分割的视觉 Mamba UNet 架构再思考
本文提出VM-UNetV2模型,创新性地结合视觉状态空间模块与语义细节融合机制,用于医学图像分割任务。针对现有CNN和Transformer模型在长程依赖建模与计算效率方面的不足,该模型通过VSS模块捕获广泛上下文信息,并采用SDI模块增强多层次特征融合。实验在7个公开医学数据集上验证了VM-UNetV2的优越性能,其不仅分割精度优于VM-UNet、UNetV2等对比模型,还具有更低的计算复杂度。该研究为SSM-based医学分割算法的发展提供了新思路,代码已开源。
2025-12-02 08:00:00
638
原创 【youcans论文精读】VM-UNet:面向医学图像分割的视觉 Mamba UNet 架构
本文提出首个纯基于状态空间模型(SSMs)的医学图像分割模型VM-UNet。针对现有CNN模型长程建模能力不足和Transformer模型计算复杂度高的问题,VM-UNet采用视觉状态空间(VSS)块构建非对称编解码器结构,在保证线性计算复杂度的同时增强长距离依赖建模能力。
2025-12-01 08:00:00
1019
原创 【医学影像 AI】视网膜基础语言-图像模型(FLAIR):通过文本监督编码专家知识
FLAIR,一个专用于视网膜眼底图像分析的视觉-语言基础模型。通过整合284,660张眼底图像和96种病理类别,FLAIR创新性地将专家知识以文本提示形式嵌入模型训练,包括病理细粒度特征描述和层级关系。实验表明,该模型在领域迁移和未知类别场景下展现出卓越的泛化能力,经轻量级微调后性能显著优于CLIP等通用模型及专用模型,为医学影像AI提供了专业化的基础模型解决方案。
2025-12-01 07:00:00
1369
原创 【youcans论文精读】U-Net v2:重新思考医学图像分割中 U-Net 的跳跃连接
U-Net v2 模型通过创新的SDI模块优化医学图像分割中的跳跃连接机制。SDI模块利用Hadamard乘积融合高层语义与低层细节特征,结合空间和通道注意力机制增强特征表达。该模型可无缝集成到各类编解码器网络,为医学图像分割提供高效解决方案。
2025-11-30 08:00:00
1007
原创 【youcans论文精读】U-Net:用于医学图像分割的 U型卷积神经网络
U-Net是一种用于医学图像分割的U型卷积神经网络。其核心创新在于对称的编码器-解码器结构,通过跳跃连接保留空间信息,实现精确分割。该网络在少量标注数据下表现优异,采用数据增强和加权损失函数提升性能。
2025-11-29 08:00:00
1493
2
原创 【动手学UNet】(4)UNet 模型的训练
本文介绍了【动手学UNet】系列教程中的模型训练部分,详细讲解了UNet图像分割模型的完整训练流程。内容包括训练脚本模块core/train_unet.py的功能实现,如数据加载、模型构建、损失计算和参数更新等关键环节。文章展示了如何通过测试程序验证训练链路的正确性,并介绍了训练过程中集成验证集评估、模型保存及TensorBoard日志记录等优化措施。
2025-11-29 08:00:00
1030
原创 【动手学UNet】(3)UNet 模型的实现
【动手学UNet】系列教程详细介绍了UNet模型的实现过程。文章通过unet.py代码展示了UNet网络的核心架构,包括编码器(Encoder)和解码器(Decoder)结构。代码实现了DoubleConv、Down、Up等关键模块,并支持可配置的输入通道和输出类别数。UNet类作为主模型,包含4层下采样结构,可选择双线性插值或转置卷积进行上采样。
2025-11-28 08:00:00
2077
原创 【动手学UNet】(2)数据加载
【动手学UNet】系列教程提供完整的UNet图像分割实现指南。数据加载模块(data_utils.py)是该系列的核心组件之一,主要功能包括:从目录读取图像与掩膜文件,进行预处理和尺寸统一化,转换为PyTorch张量格式。
2025-11-27 09:00:00
1123
原创 【动手学UNet】(1)创建UNet项目
本系列教程提供完整的UNet图像分割实现指南,包含7个核心章节:项目创建、数据加载、模型实现、训练过程、保存加载、推理评估和主程序开发。教程详细解析了UNet的U型对称结构、跳跃连接等核心特点,并指导读者搭建规范的PyCharm项目结构(包含dataset、core、model等模块)。特别介绍了如何配置conda虚拟环境,创建初始化模块,以及构建最小测试框架验证项目基础功能。该教程采用循序渐进的方式,适合不同水平的开发者学习经典UNet模型在医学影像等领域的应用实践。
2025-11-26 10:13:48
925
原创 【youcans论文精读】回归基础:让去噪生成模型来去噪
Kaiming He 发布论文【回归基础:让去噪生成模型来去噪】。本文提出,预测干净数据与预测含噪量存在本质区别。倡导直接预测干净数据的模型设计:这类模型能让看似容量不足的神经网络在极高维空间中高效工作。提出极简自包含模型 “JiT”,简化扩散模型的设计范式:完全基于标准视觉 Transformer(ViT),无分词器、无预训练、无额外损失。
2025-11-25 21:17:23
765
原创 【跟我学YOLO】(3)训练 YOLO11 图像分割模型
本文介绍了如何使用YOLOv11进行图像分割任务YOLOv11在COCO-seg数据集上预训练,提供了多个分割模型选项,支持实例分割任务输出对象掩码和类别标签。文章详细说明了安装步骤和模型选择建议,帮助用户快速上手YOLOv11图像分割应用。
2025-11-23 12:19:16
1351
原创 【CLIP】(2)CLIP 项目安装与配置
CLIP是OpenAI发布的多模态模型,采用图文对比学习预训练,无需人工标注即可实现跨模态检索、零样本分类等任务。安装方法包括克隆GitHub项目或下载ZIP文件,并通过Miniconda创建虚拟环境配置PyTorch和CUDA。使用PyCharm配置环境后,运行测试脚本验证安装。应用示例展示了零样本图像分类功能,模型通过对比学习理解图像与文本的语义关联,无需额外训练即可预测图像内容。完整代码演示了从图像预处理到预测结果输出的全流程。
2025-11-21 07:30:00
1118
原创 【CLIP】CLIP 论文详读
CLIP(Contrastive Language-Image Pretraining)是OpenAI提出的多模态预训练模型,通过对比学习实现图像与文本的语义对齐。该模型利用海量网络图文数据(4亿对)进行自监督训练,摆脱了对人工标注数据的依赖,构建了统一的视觉-语言语义空间。CLIP的核心创新在于:1)采用双编码器架构(图像+文本)和对比损失函数;2)实现零样本跨模态迁移能力,可直接通过自然语言指令完成分类等任务。
2025-11-20 07:00:00
826
原创 【DINOv3】(7)视频分割与目标跟踪模型
本文介绍了基于DINOv3模型的视频分割与目标跟踪方法。该方法利用DINOv3提取的高质量语义特征,通过计算帧间特征相似度实现标签传播,仅需首帧分割掩膜即可自动完成视频目标跟踪。文章详细说明了实现原理、处理流程和运行环境配置,包括模型加载、特征提取、标签传播等关键步骤。作者已将官方Jupyter Notebook例程改写为本地可运行的Python脚本,方便在实际项目中应用。
2025-11-19 08:00:00
1944
原创 【动手学YOLO】DINO-YOLO:面向数据高效目标检测的自监督预训练方法
DINO-YOLO 提出了一种结合YOLOv12与DINOv3的创新混合架构。该模型通过双点特征注入策略(输入端P0和骨干网络P3层),有效解决了土木工程领域标注数据稀缺问题。
2025-11-18 08:00:00
1476
原创 【DINOv3】(6)例程 3:训练前景分割模型
本文介绍DINOv3官方例程foreground_segmentation.ipynb的本地Python实现,展示如何使用DINOv3预训练模型的高维特征训练前景分割分类器。本文将原Notebook转换为本地可执行的Python脚本,支持CPU/GPU运行。
2025-11-17 08:44:27
1229
原创 【DINOv3】(5)例程 2:特征提取与图像匹配例程
DINOv3模型在图像特征提取与匹配任务中表现出色。本文基于DINOv3官方例程dense_sparse_matching.ipynb,改写为本地可运行的Python程序,实现两种特征匹配方式:(1)密集匹配:生成全图匹配热力图,验证特征语义一致性;(2)稀疏匹配:精确定位关键patch对应关系。程序包含完整流程:环境配置、模型加载、图像预处理、特征提取、相似度计算和可视化。通过PCA降维和高维特征匹配,展示DINOv3在跨视角、光照变化下的鲁棒性。
2025-11-16 08:00:00
1757
原创 【医学影像 AI】U-Bench: 基于 100 种变体基准测试的 U-Net 全面解析
U-Bench是首个全面评估100种U-Net变体的大规模基准测试平台,涵盖28个数据集和10种医学影像模态。该研究提出U-Score新指标,综合评估模型性能与计算效率,揭示了现有方法在统计显著性、零样本泛化能力和效率权衡方面的不足。该工作填补了U-Net变体缺乏系统性评估的空白,为临床部署和未来研究提供了重要参考。
2025-11-15 17:40:22
1104
原创 【DINOv3】(4)例程1:高维特征可视化
DINOv3模型通过高维特征可视化展示了语义理解能力。本文将官方Jupyter Notebook例程改写为本地可运行脚本。程序使用PCA将DINOv3提取的384维特征降至3维,生成 彩虹可视化 效果,展现前景物体在特征空间的聚集性。核心流程包括:1)加载预训练模型;2)图像预处理;3)特征提取;4)PCA降维;5)特征图重构与可视化。该方法直观验证了DINOv3在无监督条件下的语义一致性表现。
2025-11-14 08:59:02
1312
原创 【医学影像 AI】nnU-Net 从下载到使用
nnU-Net是由Isensee等人提出的自配置医学图像分割框架,通过自动分析数据集特征并优化网络配置,在多项国际挑战中达到领先水平。该系统将复杂的参数设置流程系统化为固定参数、基于规则的参数和少量经验参数,无需专业知识即可实现高性能分割。支持2D/3D图像处理,适用于各类模态和尺寸的医学影像。
2025-11-12 10:00:00
1048
欧瑞博智能体验馆设计标准
2023-03-10
Visual ChatGPT: Talking, Drawing and Editing with Visual F
2023-03-15
2020中国智能家居生态发展白皮书
2023-03-10
2019中国智能家居发展白皮书
2023-03-10
HDL河东智能家居解决方案
2023-03-10
HDL无线家居智能解决方案
2023-03-10
带有 Opencv-contrib 的 OpenCV-Python 库
2022-12-27
爱心源码-基于傅里叶描述符实现
2022-12-11
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅