自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(179)
  • 资源 (27)
  • 收藏
  • 关注

原创 自定义ava数据集及训练与测试 完整版 时空动作/行为 视频数据集制作 yolov5, deep sort, VIA MMAction, SlowFast

前言这一篇博客应该是我花时间最多的一次了,从2022年1月底至2022年4月底。我已经将这篇博客的内容写为论文,上传至arxiv:https://arxiv.org/pdf/2204.10160.pdf欢迎大家指出我论文中的问题,特别是语法与用词问题在github上,我也上传了完整的项目:https://github.com/Whiffe/Custom-ava-dataset_Custom-Spatio-Temporally-Action-Video-Dataset关于自定义ava数据集,也是后台

2022-04-24 18:34:15 10641 77

原创 【 facenet-retinaface】快速复现 实现 facenet-retinaface-pytorch 人脸识别 windows上 使用cpu实现

快速复现 实现 facenet-retinaface-pytorch 人脸识别 windows上 使用cpu实现

2022-11-30 22:03:29 1495

原创 【facenet】快速复现 实现 facenet-pytorch 人脸识别 windows上 使用cpu实现 人脸对比

快速复现 实现 facenet-pytorch 人脸识别 windows上 使用cpu实现

2022-11-29 19:46:40 2531 2

原创 windows10 在conda环境中使用ffmpeg对视频抽帧

r 后面跟的是多少秒抽一帧 0.5表示1秒能抽两张图片。首先创建一个新的文件夹用于储存视频以及抽帧所得的图片。在新创建的文件夹内调出控制台并激活conda环境。./%08d.jpg 表示给生成的图片命名。-i 后面跟的是当前视频的名称与格式。-q:v 2 表示高质量。

2022-11-14 20:51:09 1173

原创 【win10-cpu-yolov7】 windows10上yolov7批量检测图片及常用参数解析

【win10-cpu-yolov7】 windows10上yolov7批量检测图片及常用参数解析

2022-11-07 17:39:40 647

原创 【win10-cpu-Yolov7】 windows10(cpu)上用yolov7跑视频demo

【win10-cpu-Yolov7】 windows10(cpu)上用yolov7跑视频demo

2022-11-07 13:18:37 838

原创 【win10-cpu-Yolov7】 windows10上安装yolov7 并且使用cpu跑demo

【代码】win10-cpu-Yolov7 windows10上安装yolov7 并且使用cpu跑demo。

2022-10-29 11:00:59 1671

原创 (一)【Deep video】视频理解论文串讲(上)【论文精读】笔记

Large-scale Video Classification with Convolutional Neural Networks(一)【Deep video】视频理解论文串讲(上)【论文精读】笔记

2022-10-20 16:09:10 608

原创 【03】google Colab |pytorch TensorBoard add_image 代码实战 免费GPU google Colaboratory 使用教程

这次要说的是pytorch TensorBoard add_image 代码实战,还是在google Colab (免费GPU)上操作。

2022-10-16 11:05:24 548

原创 【01】Dense Optical Flow in OpenCV (Python) 光流法 视频

【代码】Optical Flow in OpenCV (Python)

2022-10-13 07:49:50 1084

原创 【02】google Colab |pytorch Dataset类代码实战 免费GPU google Colaboratory 使用教程

这次要说的是Dataset类代码实战,还是在google Colab (免费GPU)上操作。需要提前准备的数据(准备了多个链接,防止失效):1,百度云,蚂蚁蜜蜂/练手数据集:链接:密码: 5suq2,阿里云,3,google云,

2022-10-10 19:00:33 685

原创 论文笔记【A Comprehensive Study of Deep Video Action Recognition】

本文的书写具有明确的脉络1、对当前的VAR数据集进行了介绍2、对200多篇VAR领域的论文进行了分析和汇总3、分析当前VAR领域的挑战和机遇因为具有一些深度学习背景,所以我们不通篇逐字的进行翻译学习,只整体按照其行文思路,中间主要记录一些经典研究以及之后值得展开的点:

2022-10-09 11:04:46 516

原创 将web前端项目部署到github,在hbuilderx中部署github中的项目、对Github加速

本文主要内容:如何使用github管理项目。将web前端项目部署到github,在hbuilderx中部署github中的项目、采用UU加速器对Github加速

2022-09-14 16:54:23 2623

原创 【01】google Colab 使用教程 免费GPU google Colaboratory 上运行 pytorch tensorboard

google Colab 使用教程 免费GPU google Colaboratory 上运行 tensorboardGoogle的一项免费云端机器学习服务(免费GPU)在学习pytorch的过程中,需要用到GPU,于是我最先想到google,这个家良心公司貌似提供了免费的GPU使用,果不其然,昨晚我在google的Colab 跑通了,真是良心企业,反观国内企业,哎。

2022-09-13 14:00:38 1303 1

原创 【PyTorchVideo教程02】快速安装PyTorchVideo 采用 yolov5、slowfast、deepsort对学生课堂行为进行检测

安装PyTorchVideo安装yolov5-slowfast-deepsort-PytorchVideo采用 yolov5、slowfast、deepsort对学生课堂行为进行检测

2022-09-07 02:39:20 1607 5

原创 github desktop 设置 git 项目调用(链接、引用)外部 repo

github desktop 设置 git 项目调用(链接、引用)外部 repo我们在用github时,常会用到别人的项目,但是每次直接克隆(拷贝)到自己的项目中,会占用太多空间,毕竟github给每个用户的空间是有限的,所以,我们使用引用的方式而不是拷贝的方式来用别人的项目。看到很多GitHub仓库引用了别人的仓库,就像做了个软链接一样:点进去打开之后是另一个的GitHub仓库(可以是别人的 repo)。

2022-09-04 14:40:50 833

原创 java swing 飞机大战游戏 github 免费 开源 公开 源码

飞机大战游戏运行展示 java swing github 免费 开源 公开。所以我把该项目的源码公开了,放在了github与码云上,也发布了操作视频。但是它不是开源的,课程讲到一半就要付费了。先看看飞机大战游戏运行的样子。如何下载与运行,请看。...

2022-09-01 02:11:57 1188

原创 JFormDesigner教程(02)demo演示 java swing插件

JFormDesigner教程(02)demo演示 java swing插件首先打开idea,创建项目,在src下面创建JFormDesigner Form。这一篇就简单说一下JFormDesigner的demo演示。然后我们可以看到下面这张图的结构。

2022-08-31 01:20:37 816 1

原创 如何将java项目部署到github?如何将github的java项目部署到本地(通过idea)?

如何将java项目部署到github?如何将github的java项目部署到本地(通过idea)?如果你没有github的账号,那需要注册一个当然,由于github在国内速度慢,我们得有个提速的工具,那就是码云,我们可以将github的项目同步到码云中,以起到提速作用。............

2022-08-30 01:02:24 1050 1

原创 【mmaction2 入门教程 04】训练 AVA 数据集中的自定义类别

【mmaction2 入门教程 04】训练 AVA 数据集中的自定义类别

2022-08-18 00:28:44 818

原创 【mmaction2 入门教程 03】评价指标可视化 mAP、每类行为的ap值、每类行为的数量

【mmaction2 入门教程 03】评价指标可视化 mAP、每类行为的ap值、每类行为的数量

2022-08-16 16:40:42 681

原创 【mmaction2 入门教程 02】评价指标 每类动作(行为)数量、 precision(准确率),recall(召回率)、ap、mAP

这次的博客说说如何在mmaction2中的评价指标,主要是评价每一个动作(行为)的召回率Recall和精准率(Precision)、 AP、mAP。

2022-08-09 01:29:27 612

原创 【mmaction2 入门教程 01】 slowfast训练配置 日志分析 测试结果分析

【mmaction2 入门教程】 slowfast训练配置 日志分析 测试结果分析,时空动作检测的配置文件系统解析

2022-08-06 15:00:05 1668 4

原创 【PyTorchVideo教程01】快速实现视频动作识别

PyTorchVideo是Facebook2021年4月份发布,主要针对视频深度学习应用。近几年来,随着传播媒介和视频平台的发展,视频正在取代图片成为下一代的主流媒体,这也使得有关视频的深度学习模型正在获得越来越多的关注。然而,有关视频的深度学习模型仍然有着许多缺点: - 计算资源耗费更多,并且没有高质量的 model zoo,不能像图片一样进行迁移学习和论文复现。 - 数据集处理较麻烦,但没有一个很好的视频处理工具。 - 随着多模态越来越流行,亟需一个工具来处理其他模态。..........

2022-07-30 16:18:16 2143 9

原创 【AdaptiveAvgPool3d】pytorch教程

N表示batch_size、C代表channels、D是视频流的深度、H是每帧图像的高度,W是每帧图像的宽度视频流,每帧都是一个或RGB或灰度图,且每帧的通道数都是一样的,假设为3,对于一 个固定的视频流,其应用Conv3d的输入大小应为(1,3, d, h, w), 其中1等于batch size, 3等于输入channels, d是视频流的深度,h是每帧图像的高度,w是每帧图像的宽度。.........

2022-07-23 16:18:59 1197

原创 YOLOv7快速复现 【demo演示】YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object

YOLOv7 在 5 FPS 到 160 FPS 范围内,速度和精度都超过了所有已知的目标检测器,并在 GPU V100 上,30 FPS 的情况下达到实时目标检测器的最高精度 56.8% AP。YOLOv7 是在 MS COCO 数据集上从头开始训练的,不使用任何其他数据集或预训练权重。......

2022-07-13 13:46:29 2075 7

原创 【slowfast 损失函数改进】深度学习网络通用改进方案:slowfast的损失函数(使用focal loss解决不平衡数据)改进

【slowfast 损失函数改进】深度学习网络通用改进方案:slowfast的损失函数(使用focal loss解决不平衡数据)改进

2022-06-23 10:48:10 1298 3

原创 PP-YOLOE介绍与复现

这是2022年第一个关于YOLO的改版,该版本由百度提出,称之为YOLOE,是目前各项指标sota的工业目检测器,性能sota且部署相对友好。该检测器的设计机制包括:该团队提供了s/m/l/x模型,YOLOE-l在COCO-Test中mAP达到51.1,在V100上可达71.1FPS,相对于YOLOX-l加速24.96%,mAP提高1.0,使用trt fp16进行推理可达149FPS.论文地址: https://arxiv.org/pdf/2203.16250.pdf代码已开源: https://git

2022-06-09 17:02:31 929 1

原创 三分钟快速安装 facebookresearch SlowFast

三分钟安装 facebook research slowfast

2022-05-12 18:12:17 1872

原创 yolov5 训练crowded human 【visible body detection】

使用yolov5训练crowded human中的head与visible body

2022-05-01 22:36:26 1981 25

原创 【ava数据集可视化】ava数据集ID可视化 A Video Dataset of Spatio-temporally Localized Atomic Visual Actions

mmaction20 前言ava 数据可视化 目的在于更直观看出ava数据集的结构1 mmaction2 安装1.1 安装在AI平台中选择如下版本镜像:安装命令如下:cd homegit clone https://gitee.com/YFwinston/mmaction2.gitpip install mmcv-full==1.3.17 -f https://download.openmmlab.com/mmcv/dist/cu111/torch1.8.0/index.html

2022-01-10 16:27:13 1585 1

原创 01【mmtracking】多目标跟踪算法 deepsort 复现

Simple online and realtime tracking with a deep association metric安装cd homepip install opencv-python-headless -i https://pypi.douban.com/simplepip install mmcv-full==1.3.8 -f https://download.openmmlab.com/mmcv/dist/cu111/torch1.8.0/index.htmlgit

2022-01-02 14:57:18 2890

原创 00【mmtracking】mmtracking 目标跟踪 介绍

效果演示:MMTracking 涵盖方向包括单目标跟踪、多目标跟踪、视频目标检测(Single Object Tracking (SOT), Multiple Object Tracking (MOT), Video Object Detection (VID)) 作者:我爱计算机视觉 https://www.bilibili.com/read/cv9133752/ 出处:bilibili...

2022-01-01 20:46:29 2587

原创 12【mmaction2 行为识别商用级别】X3D复现 demo实现 检测自己的视频 Expanding Architecturesfor Efficient Video Recognition

github(新版):https://github.com/Whiffe/mmaction2_YF码云(新版):https://gitee.com/YFwinston/mmaction2_YF.gitgithub(老版本):https://github.com/Whiffe/YF-OpenLib-mmaction2码云(老版本):https://gitee.com/YFwinston/YF-OpenLib-mmaction2.gitmmaction2 官网:https://github.com/op

2021-12-21 00:17:34 1928 4

原创 04【mmaction2 行为识别商用级别】slowfast检测算法使用yolov3来检测人

github(新版):https://github.com/Whiffe/mmaction2_YF码云(新版):https://gitee.com/YFwinston/mmaction2_YF.gitgithub(老版本):https://github.com/Whiffe/YF-OpenLib-mmaction2码云(老版本):https://gitee.com/YFwinston/YF-OpenLib-mmaction2.gitmmaction2 官网:https://github.com/op

2021-12-07 19:35:15 4757 2

原创 08【mmaction2 行为识别商用级别】自定义ava数据集 之 将视频裁剪为帧

github(新版):https://github.com/Whiffe/mmaction2_YF码云(新版):https://gitee.com/YFwinston/mmaction2_YF.gitgithub(老版本):https://github.com/Whiffe/YF-OpenLib-mmaction2码云(老版本):https://gitee.com/YFwinston/YF-OpenLib-mmaction2.gitmmaction2 官网:https://github.com/op

2021-12-04 10:43:23 2890 2

原创 00【mmaction2 行为识别商用级别】快速搭建mmaction2 pytorch 1.6.0与 pytorch 1.8.0 版本,faster rcnn 与 slowfast

github(新版):https://github.com/Whiffe/mmaction2_YF码云(新版):https://gitee.com/YFwinston/mmaction2_YF.gitgithub(老版本):https://github.com/Whiffe/YF-OpenLib-mmaction2码云(老版本):https://gitee.com/YFwinston/YF-OpenLib-mmaction2.git平台:极链AIb站:之前的mmaction2项目:【mmacti

2021-11-30 09:26:49 3227 7

原创 03【mmaction2 行为识别商用级别】使用mmaction搭建faster rcnn批量检测图片输出为via格式

github:https://github.com/Whiffe/YF-OpenLib-mmaction2.git码云:https://gitee.com/YFwinston/YF-OpenLib-mmaction2.gitB站:上一个mmaction2项目:【mmaction2 slowfast 行为分析(商用级别)】总目录平台:极链AI0,前言在之前,我使用了mmaction2做了slowfast商用项目的检测,这次是对之前的项目的优化,如:faster rcnn时如何在mmaction2中

2021-11-24 15:45:02 2422 1

原创 【Yolov5-Deepsort pytorch】快速复现+ 检测自己的视频 (Linux 版本)

前言我大概花了1小时就完成了第一次接触到检测自己输入的视频,并不是说自己的优秀,而是yolo的特点就是,易上手,难修改。一.简介YOLOv5是一种单阶段目标检测算法,该算法在YOLOv4的基础上添加了一些新的改进思路,使其速度与精度都得到了极大的性能提升。主要的改进思路如下所示:输入端:在模型训练阶段,提出了一些改进思路,主要包括Mosaic数据增强、自适应锚框计算、自适应图片缩放;基准网络:融合其它检测算法中的一些新思路,主要包括:Focus结构与CSP结构;Neck网络:目标检测网络在Ba

2021-11-17 13:01:25 5678 3

原创 【mmaction2 调用指定GPU】mmaction2 使用指定编号的GPU训练模型

如果自己的电脑有多个GPU,如何在mmaction2中调用指定的GPU呢?下面教你一行代码实现tools/train.py进入到 / mmaction2/ tools / train.py 中找到如下代码:注释掉红色框中的代码,然后在下面添加如下代码:cfg.gpu_ids = range(1,2)这一行的意思是,rang(1,2),那么可选的就是只有1,那么就是调用第1块GPU(注意,GPU编号从0开始)。如果要调用第2块GPU,就改成range(2,3)然后就是直接训练:看结果

2021-10-12 08:46:41 795 1

yolov7 hand detection

yolov7 hand detection

2022-12-12

Youtube-Hands yolov7 detection

Youtube-Hands yolov7 detection

2022-12-12

face-dataset img 人脸识别 样例

face_dataset img 人脸识别 样例

2022-11-30

人脸识别素材 4张人脸图

人脸识别素材 4张图

2022-11-29

22-8-6 mmaction2 slowfast训练配置 训练日志分析

包含配置文件: 训练日志:20220805_165139.log.json 训练配置:my_slowfast_kinetics_pretrained_r50_4x16x1_20e_ava_rgb.py 训练配置(为了测试训练集的效果):my_slowfast_kinetics_pretrained_r50_4x16x1_20e_ava_rgb2.py

2022-08-06

22-8-4 mmaction2 slowfast训练日志

22-8-4 mmaction2 slowfast训练日志 包含配置文件:my_slowfast_kinetics_pretrained_r50_4x16x1_20e_ava_rgb.py 训练结束后使用最好的checkpoint的参数进行测试,将测试结果存储在:part_0.pkl 训练过程的记录:20220804_185539.log.json

2022-08-05

archery.mp4 行为识别 pytorchvideo demo演示视频(行为识别)

https://pytorchvideo.org/docs/tutorial_torchhub_inference#load-an-example-video archery.mp4 pytorchvideo demo演示视频

2022-07-30

archery.mp4 行为识别 pytorchvideo demo演示视频(行为识别)

https://pytorchvideo.org/docs/tutorial_torchhub_inference#load-an-example-video archery.mp4 pytorchvideo demo演示视频

2022-07-30

pretrained model on ucf24

ucf_dla34_K7_rgb_coco.pth pretrained model on ucf24

2022-07-20

课堂学习行为测量系统的设计与实现_张鸿宇.caj

课堂是学校教育的核心,课堂教学过程评价对于教学质量的提高有重要意义,而学生的课堂行为表现是课堂教学评价的重要成分。通过评价学生的课堂行为,形成有效的反馈信息和教学导向,可以有效的促进课堂教学和学生的发展。因此,利用现在的计算机视觉技术和教学过程的相关测量手段相结合,对教室中的学生学习行为进行测量,形成对学生、对课堂的多维度的客观评价和反馈,对于提高课堂内的教学效率和教学质量有着重要的意义。本文在课堂学习场景下,研究了基于体感信息的学习者动作识别的算法以及相关应用系统的设计和实现。 论文的主要贡献是设计并实现了课堂学习场景下基于体感信息的多学习者行为测量系统:针对的Kinect骨骼数据特点,本文提出了基于人体上肢骨骼结构的姿态识别方法,该方法通过选用结构向量间的向量角和向量模比值作为最终的姿态向量特征,采用SVM分类器对姿态向量特征进行分类和识别;实现了一个集数据采集、识别、记录、分析和展示于一体的课堂行为识别系统,对课堂交互活动行为分析和课堂整体活跃态势进行了分析,并使用该系统进行了针对学习者个人评价和针对课堂活跃度评价的实验。 通过测试结果表明,本文提出的姿态识别方法能有效地识别多个学习者的举手、正坐和低头等姿态,该课堂行为识别系统具有一定的实用性;通过模拟课堂实验得出对于学生个人的参与度评价、每道题的难度评价、整个课堂活跃度的评价的实验性结论,对于课堂教学过程评价具有一定的参考意义。

2021-04-15

基于深度学习的行为检测方法综述_高陈强.caj

行为检测在自动驾驶、视频监控等领域的广阔应用前景使其成为了视频分析的研究热点。近年来,基于深度学习的方法在行为检测领域取得了巨大的进展,引起了国内外研究者的关注,对这些方法进行了全面的梳理和总结,介绍了行为检测任务的详细定义和面临的主要挑战; 从时序行为检测和时空行为检测 2 个方面对相关文献做了细致地分类,综合分析了每一类别中不同研究方法的思路和优缺点,并阐述了基于弱监督学习、图卷积神经网络、注意力机制等新兴研究话题的相关方法; 介绍了行为检测领域常用的数据集以及性能评估指标,在这些数据集上比较了几种典型方法的性能; 总结了当前行为检测方法需要解决的问题以及进一步发展的研究方向。

2020-12-25

机器人抓取检测技术的研究现状_刘亚欣.caj

基于学习的方法 机器学习方法已被证明对广泛的感知问题有效[32-36], 允许感知系统学习从一些特征集到各种视觉特性的映射[37]. 研究人员更是将深度学习引入抓取检测中,将学习方法应用于视觉中,引入学习方法对抓取质量进行评分[38]. 近期的文献采用了更丰富的特征和学习方法,允许机器人抓取部分被遮挡的已知物体[39] 或已知物体未知姿态[40] 以及系统之前未见过的全新物体(未知物体)[41],本文将讨论后一种情况. 早期的工作集中在仅从2D部分视图数据中检测单个抓取点,使用启发式方法基于此点确定机械手姿态[41]. 由于只有二维信息,第三维度的距离必须是固定的,抓取具有局限性,而3D数据的

2020-12-11

Real-Time Grasp Detection Using Convolutional Neural Networks

我们提出一种准确而且可以达到实时性能要求基于卷积神经网络的,机器人抓取检测方法。我们的抓取方法没有使用常见的滑动窗口或者区域选择技术,我们的网络只是使用single-stage回归去找到可抓取的包围检测框。模型的表现性能比当前最先进的方法也要高出十四个百分点(我想这里应该说的是准确率)。同时可以在单张GPU上能达到每秒十三帧图像的性能。我们的网络可以在对物体进行分类的同时,也可以做到找出可抓取部位的检测矩形框。在这个模型上我们也做了一些修改,使它可以对单个物体上预测多个抓取部位,实现的方法是基于一个局部受限预测机制,基于该机制的模型表现更好,尤其是物体有多个抓取方式的时候。

2020-12-10

苹果采摘机器人末端执行器无损主动抓取技术研究

在果蔬生产过程中,采摘环节是最耗时和耗力的环节,人工采摘的成本约占整个生产成本的 50%~70%。开展采摘机器人研究,不仅有利于解决人口老龄化和社会城镇化导致的劳动力日益短缺问题,还能促进我国农业科技进步,加速实现农业现代化。由于果蔬组织柔软、易损伤且生长程度不一,相互差异较大,导致采摘的损伤率较高。因此开展末端执行器抓取规划和控制策略的研究对实现采摘机器人的无损采摘具有重要意义,本文从采摘机器人末端执行器稳定抓取规划以及抓取力主动柔顺控制两个角度出发对采摘机器人无损抓取技术进行研究,主要研究内容如下: (2) 以力封闭作为理论基础,分析了两指稳定抓取条件,制定了两指稳定抓取策略。同时根据三

2020-11-24

基于卷积神经网络的二指机械手抓取姿态生成研究_李耿磊

本课题立足机械手自主抓取,研究利用卷积神经网络实现物体表面抓取点生成的解决方案。本课题以场景的深度图像作为输入信息,采取 “先采样,后预测”的两步走抓取生成方案。首先利用 Laplace 方法在深度图像中提取物体边缘像素点,并利用对跖法生成抓取空间;然后基于重要性采样方法从抓取空间中采样获得候选抓取集,最后利用训练好的抓取预测卷积神经网络模型预测候选集每个抓取的成功置信度,取其中极大者作为结果指导机器人完成抓取。 为将卷积神经网络应用于抓取预测,本课题建立了基于卷积神经网络的抓取预测模型。将抓取预测问题抽象为深度学习中的分类问题,网络输出为某抓取点属于成功抓取的置信度。本课题定义一组抓取为

2020-11-22

室内环境下移动机械臂的目标抓取技术.caj

随着科学技术的发展,机器人在人类的生产生活中扮演着越来越重要的角色。移动 机械臂是指以移动机器人为平台,在平台上安装机械臂的设备。移动机械臂不仅具有移机器人的环境感知和自主导航功能,还具有机械臂灵活的操作能力,被广泛的应用于工业生产、智能服务、太空工作及侦查排爆等领域。本文以移动机械臂的侦察排爆为背景,围绕移动机械臂的目标抓取任务,重点研究室内环境中移动机械臂的建图与导航、目标检测与抓取等关键技术。本文的主要工作包括以下几个方面: (1) 在Turtlebot2移动机器人平台上搭建PhantomX_ARM机械臂构成移动机械臂,并搭建 RPLIDAR A2 激光雷达传感器与 Xt

2020-11-20

智能工业机器人的环境感知与运动规划.caj

智能机器人是指能够自主完成特定任务的机器人,而对环境感知和运动规 划的研究则有助于提高机器人的自主性,使其更加智能化。环境感知主要是通 过各类视觉传感器采集点云或图像数据,并由计算机进行分析处理后,使机器 人系统能够获得环境中物体的各类信息。运动规划则是在环境感知的基础上, 通过规划出一条无碰轨迹来实现机器人的运动控制。 本文首先介绍各类传感器的标定方法,用以实现不同数据在坐标系下的统 一。在分析现有标定算法的基础上,利用 Navy 手眼标定法优化计算最小二乘 解,从而使标定精度达到毫米级;而基于两步法的单线激光传感器标定方法则 是在保证精度足够的前提下,有效地减少了计算量,从而提高了算法效

2020-11-19

_移动机器人SLAM与路径规划方法研究.caj

自动搬运是现代物流仓库实现自动化、智能化的基础。自主移动机器人 相对于传送带与传统AGV,面对未知环境有探索和决策能力,具有柔性强、 可重构环境的优点。本文对自主移动机器人同时定位与地图构建、路径规 划方法进行了深入研巧,主要内容如下: 首先,同时定位与地图构建方法研究。建立了本研究的系统模型W及 同时定位与建图的数学模型,分析其关键问题。然后,分别对郎F-SLAM和 FAST-SLAM算法进行原理分析和仿真分析。仿真实验表明;两种算法均可W 取得较好仿真效果,但FAST-SLAM算法的追踪误差较小、更适应实际环境。 其次,提出了蜘蛛群居算法的改进策略。为了提高

2020-11-16

基于ROS视觉定位的机器人智能抓取系统研究_王海玲

随着科技的飞速发展,机器人应用变得越加广泛。如今,在线示教和离线编程是工业生产线中控制机器人常见的控制方式,但是由于受到抓取目标物体的初始位姿和最终位姿被严格限定的问题,只能依靠机械完成机器人点到点的操纵,全程所用时间长、操作效率低以及定位准确度也低,因此,机器人在智能化程度上有一定程度的欠缺。在此问题的基础上,本课题提出一套基于ROS(机器人操作系统)视觉定位的机械臂智能抓取系统,使抓取目标的初始位姿和最终位姿被严格限定的问题得到解决。首先,采用张正友算法标定RGB-D相机,获取其内外参数;其次,采用棋盘格与AR标签两种方法,实现手眼标定;然后,通过多模态信息进行物体的识别与位姿估计;最终,

2020-11-06

SLAM第四讲作业及资料.zip

我们在现实生活中能看到大量的照片。在计算机中,一张照片由很多个像素组成,每 个像素记录了色彩或亮度的信息。三维世界中的一个物体反射或发出的光线,穿过相机光 心后,投影在相机的成像平面上。相机的感光器件接收到光线后,产生了测量值,就得到 了像素,形成了我们见到的照片。这个过程能否用数学原理来描述呢?本讲,我们首先讨 论相机模型,说明投影关系具体如何描述,相机的内参是什么。同时,简单介绍双目成像 与 RGB-D 相机的原理。然后,介绍二维照片像素的基本操作。最后,我们根据内外参数 的含义,演示一个点云拼接的实验

2020-06-16

第四讲:相机模型与非线性优化.pptx

我们在现实生活中能看到大量的照片。在计算机中,一张照片由很多个像素组成,每 个像素记录了色彩或亮度的信息。三维世界中的一个物体反射或发出的光线,穿过相机光 心后,投影在相机的成像平面上。相机的感光器件接收到光线后,产生了测量值,就得到 了像素,形成了我们见到的照片。这个过程能否用数学原理来描述呢?本讲,我们首先讨 论相机模型,说明投影关系具体如何描述,相机的内参是什么。同时,简单介绍双目成像 与 RGB-D 相机的原理。然后,介绍二维照片像素的基本操作。最后,我们根据内外参数 的含义,演示一个点云拼接的实验

2020-06-16

SLAM第三讲作业资料.zip

上一讲,我们介绍了三维世界中刚体运动的描述方式,包括旋转矩阵、旋转向量、欧 拉角、四元数等若干种方式。我们重点介绍了旋转的表示,但是在 SLAM 中,除了表示之 外,我们还要对它们进行估计和优化。因为在 SLAM 中位姿是未知的,而我们需要解决什 么样的相机位姿最符合当前观测数据这样的问题。一种典型的方式是把它构建成一个优化 问题,求解最优的 R; t,使得误差最小化。 如前所言,旋转矩阵自身是带有约束的(正交且行列式为 1)。它们作为优化变量时, 会引入额外的约束,使优化变得困难。通过李群——李代数间的转换关系,我们希望把位 姿估计变成无约束的优化问题,简化求解方式。由于读者可能还没有李群李代数的基本知 识,我们将从最基本的开始讲起。

2020-06-10

第三讲:李群与李代数.pptx

上一讲,我们介绍了三维世界中刚体运动的描述方式,包括旋转矩阵、旋转向量、欧 拉角、四元数等若干种方式。我们重点介绍了旋转的表示,但是在 SLAM 中,除了表示之 外,我们还要对它们进行估计和优化。因为在 SLAM 中位姿是未知的,而我们需要解决什 么样的相机位姿最符合当前观测数据这样的问题。一种典型的方式是把它构建成一个优化 问题,求解最优的 R; t,使得误差最小化。 如前所言,旋转矩阵自身是带有约束的(正交且行列式为 1)。它们作为优化变量时, 会引入额外的约束,使优化变得困难。通过李群——李代数间的转换关系,我们希望把位 姿估计变成无约束的优化问题,简化求解方式。由于读者可能还没有李群李代数的基本知 识,我们将从最基本的开始讲起。

2020-06-10

第二讲:三维空间的刚体运动.pptx

一个刚体在三维空间中的运动是如何描述的。我们当然知道这由一次旋转加一次 平移组成。平移确实没有太大问题,但旋转的处理是件麻烦事。我们将介绍旋转矩阵、四 元数、欧拉角的意义,以及它们是如何运算和转换的。在实践部分,我们将介绍线性代数 库 Eigen。它提供了 C++ 中的矩阵运算,并且它的 Geometry 模块还提供了四元数等刚 体运动的描述。 Eigen 的优化非常完善,但是它的使用方法有一些特殊的地方,我们会在 程序中介绍

2020-06-09

SLAM第二讲作业资料.zip

一个刚体在三维空间中的运动是如何描述的。我们当然知道这由一次旋转加一次 平移组成。平移确实没有太大问题,但旋转的处理是件麻烦事。我们将介绍旋转矩阵、四 元数、欧拉角的意义,以及它们是如何运算和转换的。在实践部分,我们将介绍线性代数 库 Eigen。它提供了 C++ 中的矩阵运算,并且它的 Geometry 模块还提供了四元数等刚 体运动的描述。 Eigen 的优化非常完善,但是它的使用方法有一些特殊的地方,我们会在 程序中介绍

2020-06-09

作业资料 第一讲:SLAM概述与预备知识

1 习题说明 • 第 i 节课习题所有材料打包在 Li.zip 中,∀i = 1 . . . 8。 • 习题分为若⼲种:计算类习题,需要读者编程计算⼀个实际问题,我们会附有参考答案以供⾃测。 操作类习题,会指导读者做⼀个具体的实验,给出中间步骤截图或结果。简述类习题则提供阅读材 料,需要读者阅读材料后,回答若⼲问题。 • 每个习题会有⼀定的分值。每次习题分值加和为 10 分。你需要获得 8 分以上才能得到“通过”的评 价。带 ∗ 的习题为附加题,会在总分之外再提供⼀定的分值,所以总和可能超过 10 分。换句话说, 你也可以选择⼀道附加题,跳过⼀道正常题。 • 每道习题的给分由助教评判,简述类习题可能存在⼀定开放性,所以评分也存在主观因素。 • 请利⽤深蓝学院系统提交习题。每次习题我们会记通过与否。提交形式为 word 或 pdf 格式报告, 如有编程习题请提交可编译的源码。 • 为⽅便读者,我通常会准备⼀些阅读材料,放在 books/或 papers/⽬录下。请读者按个⼈需求使⽤ 这些材料。它们多数是从⽹络下载的,如果侵犯到你的权利,请及时告诉我。 • 每个习题会标注⼤致⽤时,但视同学个⼈⽔平可能会有出⼊。 • 习题的完成情况会影响你对本课程内容的掌握程度,请认真、独⽴完成。习题总得分较高的同学将 获得推荐资格。

2020-06-06

第一讲:SLAM概述与预备知识.pptx

第一讲:SLAM概述与预备知识ppt 课程内容 SLAM:Simultaneous Localization and Mapping 同时定位与地图构建 SLAM的数学基础知识 SLAM相关的计算机视觉知识 工程实践 SLAM是什么 自主运动的两大基本问题 我在什么地方?——定位 周围环境是什么样子?——建图 定位与建图=内外兼修 定位侧重对自身的了解,建图侧重对外在的了解 相互关联 准确的定位需要精确的地图 精确的地图来自准确的定位

2020-06-06

deconvmodelsolver_2014.pdf

Recovering an unblurred image from a single motion-blurred picture has long been a fundamental research problem. If one assumes that the blur kernel – or point spread function (PSF) – is shift-invariant, the problem reduces to that of image deconvolution. Image deconvolution can be further categorized to the blind and non-blind cases. In non-blind deconvolution, the motion blur kernel is assumed to be known or computed elsewhere; the task is to estimate the unblurred latent image. The general problems to address in non-blind deconvolution include reducing possible unpleasing ringing artifacts that appear near strong edges, suppressing noise, and saving computation. Traditional methods such as Weiner deconvolution (Wiener 1949) and Richardson-Lucy (RL) method (Richardson 1972, Lucy 1974) were proposed decades ago and find many variants thanks to their simplicity and efficiency. Recent development involves new models with sparse regularization and proposal of effective linear and non-linear optimization to improve result quality and further reduce running time. Blind deconvolution is a much more challenging problem, since both the blur kernel and latent image are unknown. One can regard non-blind deconvolution as one inevitable step in blind deconvolution during the course of PSF estimation or after PSF has been computed. Both blind and non-blind deconvolution is practicably very useful, which is studied and employed in a variety of disciplines, including, but not limited to, image processing, computer vision, medical and astronomic imaging and digital communication. This chapter discusses shift-invariant single image motion deblurring methods, which assume that the image is uniformly blurred with only one PSF, which may not be known in prior. This set of problems have a long history in theoretical and empirical research and are notably advanced in recent 5-10 years with a few remarkably effective models and solvers.

2020-05-27

local_vedio_detect.zip

ros基于yolo检测本地视频,对CMakeLists.txt文件有一定的修改,data文件下有需要检测是视频,src下面是话题:vediopub.cpp.vediosub.cpp,这个资源的使用还需要darknet_ros这个包,这个包网上有

2019-12-31

Software Engineering ppt

(1) Software Engineering, Ian Sommerville, in English, China Machine Press ,7th Edition(ISBN 0-321-21026,TP 311.5), 2004-11 (2) Software Engineering, Qizhichang etc.,Higher Education Press, 1st Edition(ISBN 7-04-005944-4), 2003-4 (3) Software Engineering---Principles,methods and applications, Shijiming, Higher Education Press, 1st Edition(ISBN 7-04-002903-0/TP.63),1991-5 (4) Software Engineering, Zhanghaifan, People’s Post and Telecommunications Press, 1st Edition(ISBN 7-115-09378-4, TP.2269), 2002-12

2017-10-30

软件工程试卷 考试练习试卷

(1) Software Engineering, Ian Sommerville, in English, China Machine Press ,7th Edition(ISBN 0-321-21026,TP 311.5), 2004-11 (2) Software Engineering, Qizhichang etc.,Higher Education Press, 1st Edition(ISBN 7-04-005944-4), 2003-4 (3) Software Engineering---Principles,methods and applications, Shijiming, Higher Education Press, 1st Edition(ISBN 7-04-002903-0/TP.63),1991-5 (4) Software Engineering, Zhanghaifan, People’s Post and Telecommunications Press, 1st Edition(ISBN 7-115-09378-4, TP.2269), 2002-12

2017-10-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除