AI计算机视觉
文章平均质量分 80
人工智能、深度学习、计算机视觉技术分享和学习资料
殷忆枫
这个作者很懒,什么都没留下…
展开
-
AI项目二十三:危险区域识别系统
在IPC监控视频中,很多IPC现在支持区域检测,当在区域内检测到有人闯入时,发送报警并联动报警系统,以保障生命和财产安全具有重大意义。它能够在第一时间检测到人员进入危险区域的行为,并发出及时警告,从而防止潜在事故的发生。简单说是,在地图上标记出禁区(多边形),用计算机视觉技术监控进入禁区的物体。现在很多摄像头模组,都自带了移动侦测功能,比如海思,君正,RK等。以前有在RV1126上实现过类似的,现在想在RK3568上实现。记录下PC端测试情况。1、使用YOLOV5识别人物。原创 2024-06-18 23:23:36 · 511 阅读 · 0 评论 -
AI项目二十二:行人属性识别
实现行人属性分析系统需要 3 个步骤:用 YOlOv5 识别行人用 ByteTrack 跟踪标记同一个人训练多标签图像分类网络,识别行人 26 个属性测试过程中由于使用的是CPU安装cython_bbox花了一点时间.环境搭建还是蛮麻烦的。如有侵权,或需要完整代码,请及时联系博主。原创 2024-06-15 16:16:52 · 790 阅读 · 0 评论 -
AI项目二十一:视频动态手势识别
人工智能的发展日新月异,也深刻的影响到人机交互领域的发展。手势动作作为一种自然、快捷的交互方式,在智能驾驶、虚拟现实等领域有着广泛的应用。手势识别的任务是,当操作者做出某个手势动作后,计算机能够快速准确的判断出该手势的类型。本文将使用ModelArts开发训练一个视频动态手势识别的算法模型,对上滑、下滑、左滑、右滑、打开、关闭等动态手势类别进行检测,实现类似隔空手势的功能。在前面也有使用mediapipe实现类似功能。具体自行参考。本文章参考。原创 2024-05-01 11:05:43 · 1548 阅读 · 2 评论 -
AI项目二十:基于YOLOv8实例分割的DeepSORT多目标跟踪
若该文为原创文章,转载请注明原文出处。前面提及目标跟踪使用的方法有很多,更多的是Deepsort方法。本篇博客记录YOLOv8的实例分割+deepsort视觉跟踪算法。结合YOLOv8的目标检测分割和deepsort的特征跟踪,该算法在复杂环境下确保了目标的准确与稳定跟踪。在计算机视觉中,这种跟踪技术在安全监控、无人驾驶等领域有着广泛应用。原创 2024-04-28 14:14:16 · 1186 阅读 · 1 评论 -
AI项目十九:YOLOV8实现目标追踪
目标检测和目标跟踪的区别:目标检测任务要求同时完成对象的定位(即确定对象的边界框位置)和分类(即确定对象的类别)。这意味着目标检测算法必须不仅能够确定对象是否存在,还要知道它是什么。目标检测通常用于识别和定位图像或视频帧中的对象,通常需要明确的目标类别信息。目标跟踪任务更关注对象在帧与帧之间的连续性,通常更注重对象的运动特征,而不要求进行目标的分类。目标跟踪可以不涉及目标的类别,它的主要目标是维护对象的位置和轨迹,以实现在视频序列中的跟踪。原创 2023-12-24 18:01:39 · 3465 阅读 · 1 评论 -
AI项目十八:YOLOV8自训练关键点检测
若该文为原创文章,转载请注明原文出处。记录学习YOLOV8过程,自训练关键点检测模型。清华源:-i。原创 2023-12-16 19:16:21 · 3595 阅读 · 31 评论 -
AI项目十七:ResNet50训练部署教程
ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。残差网络的特点是容易优化,并且能够通过增加相当的深度来提高准确率。其内部的残差块使用了跳跃连接,缓解了在深度神经网络中增加深度带来的梯度消失问题。原创 2023-10-18 23:05:50 · 1888 阅读 · 0 评论 -
AI项目十六:YOLOP 训练+测试+模型评估
YOLOP是华中科技大学研究团队在2021年开源的研究成果,其将目标检测/可行驶区域分割和车道线检测三大视觉任务同时放在一起处理,并且在Jetson TX2开发板子上能够达到23FPS。论文标题:YOLOP: You Only Look Once for Panoptic Driving Perception论文地址: https://arxiv.org/abs/2108.11250官方代码: https://github.com/hustvl/YOLOP。原创 2023-10-13 21:51:35 · 1234 阅读 · 5 评论 -
AI项目十五:PP-Humanseg训练及onnxruntime部署
本文将PaddleSeg的人像分割(PP-HumanSeg)模型导出为onnx,并使用onnxruntime部署,实现人像分割,效果如下图所示。原创 2023-10-11 23:28:18 · 687 阅读 · 0 评论 -
Ai项目十四:基于 LeNet5 的手写数字识别及训练
pytorch复现lenet5模型,并检测自己手写的数字图片。利用torch框架搭建模型相对比较简单,但是也会遇到很多问题,网上资料很多,搭建模型的方法大同小异,在我尝试了自己搭建搭建出来模型,无论是训练还是检测都会遇到很多的问题,像这种自己遇到的问题,请教别人也没有用。原创 2023-10-03 17:10:24 · 272 阅读 · 0 评论 -
AI项目十三:PaddleOCR训练自定义数据集
若该文为原创文章,转载请注明原文出处。续上一篇,PaddleOCR环境搭建好了,并测试通过,接下来训练自己的检测模型和识别模型。原创 2023-09-30 22:04:33 · 1342 阅读 · 5 评论 -
AI项目十二:PaddleOCR环境搭建及测试
OCR识别分为两部分,一是检测出文字,二是识别出文字。PaddleOCR: 基于飞桨的OCR工具库,包含总模型仅8.6M的超轻量级中文OCR,单模型支持中英文数字组合识别、竖排文本识别、长文本识别。PaddleOCR是一款文本识别效果不输于商用的Python库!在RV1126上也部署成功了。后续将部署到RK3568等NPU板子上。原创 2023-09-30 09:14:40 · 661 阅读 · 2 评论 -
AI项目十一:Swin Transformer训练
若该文为原创文章,转载请注明原文出处。续上一篇,训练自己的数据集,并测试。原创 2023-09-28 21:29:17 · 410 阅读 · 0 评论 -
AI项目十:Swin Transformer目标检测环境搭建
若该文为原创文章,转载请注明原文出处。原创 2023-09-28 21:06:45 · 915 阅读 · 5 评论 -
AI项目九:实例分割
计算机视觉分为四大基本任务(分类、定位、检测、分割)。而这里了解了一下实例分割。机器自动从图像中用目标检测方法框出不同实例,再用语义分割方法在不同实例区域内进行逐像素标记借一个浅显的说法:语义分割不区分属于相同类别的不同实例。例如,当图像中有多只猫时,语义分割会将两只猫整体的所有像素预测为“猫”这个类别。与此不同的是,实例分割需要区分出哪些像素属于第一只猫、哪些像素属于第二只猫。这里以猫为例,基本思路:目标检测+语义分割。原创 2023-09-26 07:02:52 · 209 阅读 · 0 评论 -
AI项目八:yolo5+Deepsort实现目标检测与跟踪(CPU版)
DeepSORT 是一种计算机视觉跟踪算法,用于在为每个对象分配 ID 的同时跟踪对象。DeepSORT 是 SORT(简单在线实时跟踪)算法的扩展。DeepSORT 将深度学习引入到 SORT 算法中,通过添加外观描述符来减少身份切换,从而提高跟踪效率。这是提供两个demo,一是跟踪计数人员;二是车辆计数跟踪;原创 2023-09-18 22:21:04 · 1134 阅读 · 0 评论 -
AI项目七:WEB端部署YOLOv5
最近接触网页大屏,所以就想把YOLOV5部署到WEB端,通过了解,知道了两个方法:1、基于Flask部署YOLOv5目标检测模型。2、基于Streamlit部署YOLOv5目标检测。代码在github上,个人感觉两个比较好的,所以基于两份代码测试。Streamlit 是一个用于数据科学和机器学习的开源 Python 框架。它提供了一种简单的方式来构建交互式应用程序,使数据科学家和机器学习工程师可以更轻松地将他们的模型展示给其他人。st.write():打印文本、数据框、图表等。st.title()原创 2023-09-12 23:05:15 · 3357 阅读 · 17 评论 -
AI项目六:基于YOLOV5的CPU版本部署openvino
通过openvino加速,CPU没有GPU下,从原本的20帧左右提升到50多帧,效果还可以,就 是用自己的模型,训练出来的效果不怎么好。使用树莓派等嵌入板子使用openvino效果还可以。如有侵权,或需要完整代码,请及时联系博主。原创 2023-09-12 12:50:54 · 860 阅读 · 2 评论 -
AI项目五:结印动作识别
若该文为原创文章,转载请注明原文出处。原创 2023-09-10 14:40:52 · 290 阅读 · 1 评论 -
AI项目四:基于mediapipe的钢铁侠操作(虚拟拖拽)
在B站看到使用CVZone进行虚拟物体拖放,模仿钢铁侠电影里的程序操作!_哔哩哔哩_bilibili是使用CVZone方式实现的,代码教程来源https://www.computervision.zone,感兴趣可以测试一下根据这个功能,用mediapipe实现了相同的效果。原创 2023-08-27 10:29:09 · 168 阅读 · 0 评论 -
AI项目三:基于mediapipe的虚拟绘画
随着人工智能时代的到来,许多技术得到了空前的发展,让人们更加认识到了线上虚拟技术的强大。通过mediapipe识别手的关键点,检测中指,实现隔空画画的操作。通过两个手指的间距,实现点击选择颜色或橡皮檫。原创 2023-08-20 11:30:21 · 407 阅读 · 0 评论 -
AI项目二:基于mediapipe的虚拟鼠标控制
由于博主太懒,mediapipe如何实现鼠标控制的原理直接忽略,最初的想法是想控制摄像头识别手指控制鼠标,达到播放电影的效果。基本上效果也是可以的。简单的说是使用mediapipe检测出手指的关键点,通过检测食指关键点去移动鼠标,当食指和中指距离小于一定值,当成点击事件处理。原创 2023-08-16 22:57:21 · 1228 阅读 · 0 评论 -
AI项目一:mediapipe测试
若该文为原创文章,转载请注明原文出处。原创 2023-08-13 09:29:26 · 363 阅读 · 0 评论 -
AI学习笔记四:yolov5训练自己的数据集
若该文为原创文章,转载请注明原文出处。一般情况下,大部分人的电脑都是没有cpu的,cpu也是可以训练的,但花费的时间太长,实际200张图片,使用CPU训练300轮花了3天,本章记录使用云服务器来训练自己的数据集。使用的云服务器是AutoDL,一直在使用,性价比还是比较高的。原创 2023-07-26 22:06:35 · 1891 阅读 · 3 评论 -
AI学习笔记三:编写检测的yolov5测试代码
通过detect.py代码测试通过后,阅读detect.py代码发现,有些难以看懂,看得有点蒙蒙的,执行时,如果提示一些module没有安装,直接使用pip install安装。xmin ymin xmax ymax: 对应了坐标。运行后,会把结果保存成results.jpg图片。如有侵权,或需要完整代码,请及时联系博主。若该文为原创文章,转载请注明原文出处。所以编写了一个简单的测试程序。原创 2023-07-25 20:12:22 · 499 阅读 · 0 评论 -
AI学习笔记二:YOLOV5环境搭建及测试全过程
若该文为原创文章,转载请注明原文出处。记录yolov5从环境搭建到测试全过程。原创 2023-07-25 19:54:29 · 2816 阅读 · 6 评论 -
AI学习笔记一:软件和环境搭建
AI计算机视觉:软件和环境搭建原创 2023-07-25 14:45:57 · 252 阅读 · 0 评论