face-dataset img 人脸识别 样例
face_dataset img 人脸识别 样例
22-8-6 mmaction2 slowfast训练配置 训练日志分析
包含配置文件:
训练日志:20220805_165139.log.json
训练配置:my_slowfast_kinetics_pretrained_r50_4x16x1_20e_ava_rgb.py
训练配置(为了测试训练集的效果):my_slowfast_kinetics_pretrained_r50_4x16x1_20e_ava_rgb2.py
22-8-4 mmaction2 slowfast训练日志
22-8-4 mmaction2 slowfast训练日志
包含配置文件:my_slowfast_kinetics_pretrained_r50_4x16x1_20e_ava_rgb.py
训练结束后使用最好的checkpoint的参数进行测试,将测试结果存储在:part_0.pkl
训练过程的记录:20220804_185539.log.json
archery.mp4
行为识别
pytorchvideo demo演示视频(行为识别)
https://pytorchvideo.org/docs/tutorial_torchhub_inference#load-an-example-video
archery.mp4 pytorchvideo demo演示视频
archery.mp4
行为识别
pytorchvideo demo演示视频(行为识别)
https://pytorchvideo.org/docs/tutorial_torchhub_inference#load-an-example-video
archery.mp4 pytorchvideo demo演示视频
pretrained model on ucf24
ucf_dla34_K7_rgb_coco.pth
pretrained model on ucf24
课堂学习行为测量系统的设计与实现_张鸿宇.caj
课堂是学校教育的核心,课堂教学过程评价对于教学质量的提高有重要意义,而学生的课堂行为表现是课堂教学评价的重要成分。通过评价学生的课堂行为,形成有效的反馈信息和教学导向,可以有效的促进课堂教学和学生的发展。因此,利用现在的计算机视觉技术和教学过程的相关测量手段相结合,对教室中的学生学习行为进行测量,形成对学生、对课堂的多维度的客观评价和反馈,对于提高课堂内的教学效率和教学质量有着重要的意义。本文在课堂学习场景下,研究了基于体感信息的学习者动作识别的算法以及相关应用系统的设计和实现。
论文的主要贡献是设计并实现了课堂学习场景下基于体感信息的多学习者行为测量系统:针对的Kinect骨骼数据特点,本文提出了基于人体上肢骨骼结构的姿态识别方法,该方法通过选用结构向量间的向量角和向量模比值作为最终的姿态向量特征,采用SVM分类器对姿态向量特征进行分类和识别;实现了一个集数据采集、识别、记录、分析和展示于一体的课堂行为识别系统,对课堂交互活动行为分析和课堂整体活跃态势进行了分析,并使用该系统进行了针对学习者个人评价和针对课堂活跃度评价的实验。
通过测试结果表明,本文提出的姿态识别方法能有效地识别多个学习者的举手、正坐和低头等姿态,该课堂行为识别系统具有一定的实用性;通过模拟课堂实验得出对于学生个人的参与度评价、每道题的难度评价、整个课堂活跃度的评价的实验性结论,对于课堂教学过程评价具有一定的参考意义。
基于深度学习的行为检测方法综述_高陈强.caj
行为检测在自动驾驶、视频监控等领域的广阔应用前景使其成为了视频分析的研究热点。近年来,基于深度学习的方法在行为检测领域取得了巨大的进展,引起了国内外研究者的关注,对这些方法进行了全面的梳理和总结,介绍了行为检测任务的详细定义和面临的主要挑战; 从时序行为检测和时空行为检测 2 个方面对相关文献做了细致地分类,综合分析了每一类别中不同研究方法的思路和优缺点,并阐述了基于弱监督学习、图卷积神经网络、注意力机制等新兴研究话题的相关方法; 介绍了行为检测领域常用的数据集以及性能评估指标,在这些数据集上比较了几种典型方法的性能; 总结了当前行为检测方法需要解决的问题以及进一步发展的研究方向。
机器人抓取检测技术的研究现状_刘亚欣.caj
基于学习的方法
机器学习方法已被证明对广泛的感知问题有效[32-36], 允许感知系统学习从一些特征集到各种视觉特性的映射[37]. 研究人员更是将深度学习引入抓取检测中,将学习方法应用于视觉中,引入学习方法对抓取质量进行评分[38]. 近期的文献采用了更丰富的特征和学习方法,允许机器人抓取部分被遮挡的已知物体[39] 或已知物体未知姿态[40] 以及系统之前未见过的全新物体(未知物体)[41],本文将讨论后一种情况. 早期的工作集中在仅从2D部分视图数据中检测单个抓取点,使用启发式方法基于此点确定机械手姿态[41]. 由于只有二维信息,第三维度的距离必须是固定的,抓取具有局限性,而3D数据的
Real-Time Grasp Detection Using Convolutional Neural Networks
我们提出一种准确而且可以达到实时性能要求基于卷积神经网络的,机器人抓取检测方法。我们的抓取方法没有使用常见的滑动窗口或者区域选择技术,我们的网络只是使用single-stage回归去找到可抓取的包围检测框。模型的表现性能比当前最先进的方法也要高出十四个百分点(我想这里应该说的是准确率)。同时可以在单张GPU上能达到每秒十三帧图像的性能。我们的网络可以在对物体进行分类的同时,也可以做到找出可抓取部位的检测矩形框。在这个模型上我们也做了一些修改,使它可以对单个物体上预测多个抓取部位,实现的方法是基于一个局部受限预测机制,基于该机制的模型表现更好,尤其是物体有多个抓取方式的时候。
苹果采摘机器人末端执行器无损主动抓取技术研究
在果蔬生产过程中,采摘环节是最耗时和耗力的环节,人工采摘的成本约占整个生产成本的 50%~70%。开展采摘机器人研究,不仅有利于解决人口老龄化和社会城镇化导致的劳动力日益短缺问题,还能促进我国农业科技进步,加速实现农业现代化。由于果蔬组织柔软、易损伤且生长程度不一,相互差异较大,导致采摘的损伤率较高。因此开展末端执行器抓取规划和控制策略的研究对实现采摘机器人的无损采摘具有重要意义,本文从采摘机器人末端执行器稳定抓取规划以及抓取力主动柔顺控制两个角度出发对采摘机器人无损抓取技术进行研究,主要研究内容如下:
(2) 以力封闭作为理论基础,分析了两指稳定抓取条件,制定了两指稳定抓取策略。同时根据三
基于卷积神经网络的二指机械手抓取姿态生成研究_李耿磊
本课题立足机械手自主抓取,研究利用卷积神经网络实现物体表面抓取点生成的解决方案。本课题以场景的深度图像作为输入信息,采取
“先采样,后预测”的两步走抓取生成方案。首先利用 Laplace 方法在深度图像中提取物体边缘像素点,并利用对跖法生成抓取空间;然后基于重要性采样方法从抓取空间中采样获得候选抓取集,最后利用训练好的抓取预测卷积神经网络模型预测候选集每个抓取的成功置信度,取其中极大者作为结果指导机器人完成抓取。
为将卷积神经网络应用于抓取预测,本课题建立了基于卷积神经网络的抓取预测模型。将抓取预测问题抽象为深度学习中的分类问题,网络输出为某抓取点属于成功抓取的置信度。本课题定义一组抓取为
室内环境下移动机械臂的目标抓取技术.caj
随着科学技术的发展,机器人在人类的生产生活中扮演着越来越重要的角色。移动
机械臂是指以移动机器人为平台,在平台上安装机械臂的设备。移动机械臂不仅具有移机器人的环境感知和自主导航功能,还具有机械臂灵活的操作能力,被广泛的应用于工业生产、智能服务、太空工作及侦查排爆等领域。本文以移动机械臂的侦察排爆为背景,围绕移动机械臂的目标抓取任务,重点研究室内环境中移动机械臂的建图与导航、目标检测与抓取等关键技术。本文的主要工作包括以下几个方面:
(1) 在Turtlebot2移动机器人平台上搭建PhantomX_ARM机械臂构成移动机械臂,并搭建 RPLIDAR A2 激光雷达传感器与 Xt
智能工业机器人的环境感知与运动规划.caj
智能机器人是指能够自主完成特定任务的机器人,而对环境感知和运动规
划的研究则有助于提高机器人的自主性,使其更加智能化。环境感知主要是通
过各类视觉传感器采集点云或图像数据,并由计算机进行分析处理后,使机器
人系统能够获得环境中物体的各类信息。运动规划则是在环境感知的基础上,
通过规划出一条无碰轨迹来实现机器人的运动控制。
本文首先介绍各类传感器的标定方法,用以实现不同数据在坐标系下的统
一。在分析现有标定算法的基础上,利用 Navy 手眼标定法优化计算最小二乘
解,从而使标定精度达到毫米级;而基于两步法的单线激光传感器标定方法则
是在保证精度足够的前提下,有效地减少了计算量,从而提高了算法效
_移动机器人SLAM与路径规划方法研究.caj
自动搬运是现代物流仓库实现自动化、智能化的基础。自主移动机器人
相对于传送带与传统AGV,面对未知环境有探索和决策能力,具有柔性强、
可重构环境的优点。本文对自主移动机器人同时定位与地图构建、路径规
划方法进行了深入研巧,主要内容如下:
首先,同时定位与地图构建方法研究。建立了本研究的系统模型W及
同时定位与建图的数学模型,分析其关键问题。然后,分别对郎F-SLAM和
FAST-SLAM算法进行原理分析和仿真分析。仿真实验表明;两种算法均可W
取得较好仿真效果,但FAST-SLAM算法的追踪误差较小、更适应实际环境。
其次,提出了蜘蛛群居算法的改进策略。为了提高
基于ROS视觉定位的机器人智能抓取系统研究_王海玲
随着科技的飞速发展,机器人应用变得越加广泛。如今,在线示教和离线编程是工业生产线中控制机器人常见的控制方式,但是由于受到抓取目标物体的初始位姿和最终位姿被严格限定的问题,只能依靠机械完成机器人点到点的操纵,全程所用时间长、操作效率低以及定位准确度也低,因此,机器人在智能化程度上有一定程度的欠缺。在此问题的基础上,本课题提出一套基于ROS(机器人操作系统)视觉定位的机械臂智能抓取系统,使抓取目标的初始位姿和最终位姿被严格限定的问题得到解决。首先,采用张正友算法标定RGB-D相机,获取其内外参数;其次,采用棋盘格与AR标签两种方法,实现手眼标定;然后,通过多模态信息进行物体的识别与位姿估计;最终,
SLAM第四讲作业及资料.zip
我们在现实生活中能看到大量的照片。在计算机中,一张照片由很多个像素组成,每
个像素记录了色彩或亮度的信息。三维世界中的一个物体反射或发出的光线,穿过相机光
心后,投影在相机的成像平面上。相机的感光器件接收到光线后,产生了测量值,就得到
了像素,形成了我们见到的照片。这个过程能否用数学原理来描述呢?本讲,我们首先讨
论相机模型,说明投影关系具体如何描述,相机的内参是什么。同时,简单介绍双目成像
与 RGB-D 相机的原理。然后,介绍二维照片像素的基本操作。最后,我们根据内外参数
的含义,演示一个点云拼接的实验
第四讲:相机模型与非线性优化.pptx
我们在现实生活中能看到大量的照片。在计算机中,一张照片由很多个像素组成,每
个像素记录了色彩或亮度的信息。三维世界中的一个物体反射或发出的光线,穿过相机光
心后,投影在相机的成像平面上。相机的感光器件接收到光线后,产生了测量值,就得到
了像素,形成了我们见到的照片。这个过程能否用数学原理来描述呢?本讲,我们首先讨
论相机模型,说明投影关系具体如何描述,相机的内参是什么。同时,简单介绍双目成像
与 RGB-D 相机的原理。然后,介绍二维照片像素的基本操作。最后,我们根据内外参数
的含义,演示一个点云拼接的实验
SLAM第三讲作业资料.zip
上一讲,我们介绍了三维世界中刚体运动的描述方式,包括旋转矩阵、旋转向量、欧
拉角、四元数等若干种方式。我们重点介绍了旋转的表示,但是在 SLAM 中,除了表示之
外,我们还要对它们进行估计和优化。因为在 SLAM 中位姿是未知的,而我们需要解决什
么样的相机位姿最符合当前观测数据这样的问题。一种典型的方式是把它构建成一个优化
问题,求解最优的 R; t,使得误差最小化。
如前所言,旋转矩阵自身是带有约束的(正交且行列式为 1)。它们作为优化变量时,
会引入额外的约束,使优化变得困难。通过李群——李代数间的转换关系,我们希望把位
姿估计变成无约束的优化问题,简化求解方式。由于读者可能还没有李群李代数的基本知
识,我们将从最基本的开始讲起。
mobilenet-v2-b0353104 resnet18-5c106cde resnet34-333f7ec4 预训练模型
mobilenet_v2-b0353104.pth、resnet18-5c106cde.pth、resnet34-333f7ec4.pth 预训练模型
Transformer 论文+李沐视频+李宏毅视频 代码逐行跟踪
Transformer 论文+李沐视频+李宏毅视频 代码逐行跟踪
生成式人工智能对课堂教学的变革影响
文 - 孙 众
人工智能的发展经历了从计算智能、感知智能到认知智能的三代进化历程。当机器已具备认知智能时,若
课堂教学仍以布卢姆认知目标分类法为理论指导,以培养学生认知能力为主要目标,必然面临重大危机。
要实现生成式人工智能深度融入学校教育教学,为课堂教学带来教育新质生产力,文章提出“四个更重要”
的教学主张:掌握专家思维比专家结论更重要;经历学习过程比呈现学习结果更重要;改变评价理念比改
变评价形式更重要;重视科学教育的同时,培养人文精神更重要。
关键词:生成式人工智能;认知智能;认知目标分类;课堂教学
我国 2013-2023 年课堂视频分析的研究现状 * -基于 CiteSpace 的可视化林芷洁,杨玉宝
我国2013-2023年课...CiteSpace的可视化_林芷洁
【摘 要】课堂视频分析已成为教师、学生、教育管理者数字素养提升和实现教育高质量发展的重要工具。为探
究国内课堂教学视频分析研究的现状,文章以中国知网 2013-2023 年收录的 276 篇核心文献为计量分析对象,通过
CiteSpace 可视化分析,发现“视频分析”“课堂互动”“话语分析”和“人工智能”等成为课堂视频分析的研究热点,
且在分析技术和分析工具及应用效果等方面取得了显著进展,特别是人工智能技术有望成为推动该领域发展的新技术。
未来,需要扩大课堂视频分析的研究范围,挖掘和设计以深度学习为导向更能反映学科特点的视频分析编码系统,聚
焦师生的数字素养提升,助力新质生产力的发展。
【关键词】课堂视频分析;可视化分析;课堂互动;CiteSpace
表情分类模型-基于人脸 emotion.pth
['angry', 'disgust', 'fear', 'happy', 'neutral', 'sad', 'surprise']
生成式 AI
商业落地白皮书
给 CXO 的 AI 转型战术指南
生成式 AI
商业落地白皮书
给 CXO 的 AI 转型战术指南
01
场景案例大全
Gen-AI 240 应用全场景地图
消费零售
金融
汽车
医药大健康
智能终端
教育和科研
制造
企业服务
案例 01 飞鹤“3+3+2”战略蓝图 AI 能力中台建设
案例 05 汽车销售顾问的强大助手“SalesCopilot”
案例 02 海底捞 x 豆包大模型智慧洞察用户需求
案例 03 海尔消金携手火山引擎,共建消费金融大模型
案例 04 捷途汽车 x 豆包大模型打造智能客服“AI 小捷”
案例 06 北京协和医院基于豆包大模型和 HiAgent 研发智能运
维助手和 HIS 指南针
案例 08 OPPO × 火山引擎通过大模型强化手机终端识别、理解
和响应用户需求的能力
案例 10 面向生物医学领域打造一站式、智能化 AI 操作系统 Bio-OS
案例 09 华硕与火山引擎合作将大模型集成至“豆叮 AI 助手”
案例 11 火山引擎助力南开大学打造“AI + 教育”新生态
案例 12 大模型改善企业信息搜索体验
案例 13 豆包大模型助力晓多科技“AI 训练场 与 全渠道智能知
识库”智
读论文Rethinking the Role of Demonstrations What Makes In-Context
【读论文】Rethinking the Role of Demonstrations What Makes In-Context Learning Work
读论文Rethinking the Role of Demonstrations What Makes In-Context
【读论文】Rethinking the Role of Demonstrations What Makes In-Context Learning Work
ckpt.t7 DHN.pth osnet-x0-25.pth yolov7
https://github.com/Whiffe/Yolov7-tracker
ckpt.t7 DHN.pth osnet-x0-25.pth yolov7
https://github.com/Whiffe/Yolov7-tracker
rfb-face-mask.pth
面部表情识别模型权重
https://github.com/Whiffe/PyTorch-Facial-Expression-Recognition
latest-model-099-94.7200.pth
面部表情识别模型权重
https://github.com/Whiffe/PyTorch-Facial-Expression-Recognition
best.pth.tar
https://github.com/choyingw/SynergyNet
best.pth.tar
aflw2000-data.zip
https://github.com/choyingw/SynergyNet
aflw2000_data.zip
3dmm-data.zip
https://github.com/choyingw/SynergyNet
3dmm_data.zip
EGE C/C++ 贪吃蛇
EGE C/C++ 贪吃蛇
适用于Yolo训练和测试的coco数据集标签文件 train2017.txt和val2017.txt
适用于Yolo训练和测试的coco数据集标签文件 train2017.txt和val2017.txt和train2017.zip和val2017.zip
yolov7 yolov5 yolov8
yolov7 hand detection
yolov7 hand detection
Youtube-Hands yolov7 detection
Youtube-Hands yolov7 detection