自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 资源 (27)
  • 收藏
  • 关注

原创 行为检测论文汇总【含详细论文笔记】、数据集汇总

1,Two-Stream Convolutional Networks for Action Recognition in VideosTwo-Stream Convolutional Networks for Action Recognition in Videos算法笔记Two-Stream CNN(双流CNN)介绍(NIPS2014)行为识别之——Two-Stream Convolutional Networks2,Learning Spatiotemporal Features with 3

2020-12-31 09:58:28 754

原创 行为检测论文笔记【综述】基于深度学习的行为检测方法综述

摘 要:行为检测在自动驾驶、视频监控等领域的广阔应用前景使其成为了视频分析的研究热点。近年来,基于深度学习的方法在行为检测领域取得了巨大的进展,引起了国内外研究者的关注,对这些方法进行了全面的梳理和总结,介绍了行为检测任务的详细定义和面临的主要挑战; 从时序行为检测和时空行为检测 2 个方面对相关文献做了细致地分类,综合分析了每一类别中不同研究方法的思路和优缺点,并阐述了基于弱监督学习、图卷积神经网络、注意力机制等新兴研究话题的相关方法; 介绍了行为检测领域常用的数据集以及性能评估指标,在这些数据集上比较

2020-12-25 10:14:40 5278 3

原创 论文笔记(十三)【Resnet Resnet50】残差网络

1,参考ResNet网络结构,BN以及迁移学习详解神经网络学习小记录20——ResNet50模型的复现详解2,什么是残差网络Residual net(残差网络):将靠前若干层的某一层数据输出直接跳过多层引入到后面数据层的输入部分。意味着后面的特征层的内容会有一部分由其前面的某一层线性贡献。其结构如下:深度残差网络的设计是为了克服由于网络深度加深而产生的学习效率变低与准确率无法有效提升的问题。由于梯度消失,深层网络很难训练。因为梯度反向传播到前面的层,重复相乘可能使梯度无穷小。结果就是,随着

2020-12-22 10:09:48 2883 1

原创 论文笔记(十二)【论文中概念解释2】split merge、Bottleneck Layer、IOU

1,split()函数+merge()函数在图像处理时,我们接触到的彩色以RGB居多,为了分析图像在某一通道上的特性,需要将图像的颜色通道进行分离,或者是在对某一颜色通道处理后重新进行融合。split()和merge()方法是一对互逆操作,split()是对图像进行通道分离,merge()是进行通道合并,灰度图像只有1个通道,一般RGB能分离出3个通道,RGBA图像能分理出4个通道(如.png格式图片)2,Bottleneck Layer2.1 什么是瓶颈层Bottleneck layer又称之为

2020-12-21 13:29:08 1020

原创 论文笔记(十二)【CSPNet】CSPNET: A NEW BACKBONE THAT CAN ENHANCE LEARNING CAPABILITY OF CNN

神经网络使用最先进的方法,在对象检测之类的计算机视觉任务上实现令人难以置信的结果。 然而,这种成功极大地依赖于昂贵的计算资源,这不便于人们在廉价设备使用最先进的技术。 在本文中,我们提出了跨阶段局部网络(CSPNet:Cross Stage Partial Network),以缓解以前需要大量推理计算的问题。

2020-12-21 00:28:15 1050

原创 论文笔记(十一)【yolov4】详细解析 YOLOv4: Optimal Speed and Accuracy of Object Detection

YOLOV4结构解析1,YOLOV4改进的部分(不完全)2、主干特征提取网络Backbone3、特征金字塔4、YoloHead利用获得到的特征进行预测5,补充5.1 yolov4可视化结构(很长)5.2 yolov3结构何yolov4结构对比5.4 yolov4 思维导图5.3 Mish:一个新的state of the art的激活函数,ReLU的继任者5.4 SPP5.5参考:睿智的目标检测29——Keras搭建YoloV4目标检测平台Mish:一个新的state of the art的激活函数,

2020-12-19 17:04:51 2101 1

原创 论文笔记(十)【yolov4】YOLOv4: Optimal Speed and Accuracy of Object Detection

参考:YOLOv4原文翻译 - v4它终于来了!AbstractThere are a huge number of features which are said to improve Convolutional Neural Network (CNN) accuracy. Practical testing of combinations of such features on large datasets, and theoretical justification of the result,

2020-12-18 13:01:39 374

原创 论文笔记(九)【论文中概念解释1】1x1卷积核的作用、机器学习中的正负样本、消融实验、ROIpooling、空间金字塔池化(Spatial Pyramid Pooling, SPP)、backbone

1x1卷积核的作用、机器学习中的正负样本、消融实验、ROIpooling、空间金字塔池化(Spatial Pyramid Pooling, SPP)

2020-12-17 21:12:11 1100

原创 论文笔记(八)【yolo v3】详细解析 You Only Look Once: Unified, Real-Time Object Detection

我第一次听到yolo的时候,导师就说,yolo很强,但是作者写的论文很烂,所以我之前一直没看yolo的论文,都看得是网上的博客或者视频讲解。但为了更全面的了解yolo,代码+讲解+论文,这三者都需要。1,yolo3网络结构再网上有两种博客结构,一种为主干结构,一种为详细结构。两者表达都一样,只是前者只看主要内容,后者是详细内容。yolo3主干结构yolo3 网络结构...

2020-12-15 16:36:53 603

原创 论文笔记(七)【yolo v3】You Only Look Once: Unified, Real-Time Object Detection

AbstractWe present YOLO, a new approach to object detection. Prior work on object detection repurposes classifiers to perform detection. Instead, we frame object detection as a regression problem to spatially separated bounding boxes and associated class

2020-12-15 11:14:44 382

原创 论文笔记(六)【特征金字塔】Feature Pyramid Networks for Object Detection

《Feature Pyramid Networks for Object Detection》这篇论文主要解决的问题是目标检测在处理多尺度变化问题是的不足,现在的很多网络都使用了利用单个高层特征(比如说Faster R-CNN利用下采样四倍的卷积层——Conv4,进行后续的物体的分类和bounding box的回归),但是这样做有一个明显的缺陷,即小物体本身具有的像素信息较少,在下采样的过程中极易被丢失,为了处理这种物体大小差异十分明显的检测问题,经典的方法是利用图像金字塔的方式进行多尺度变化增强,但这样会

2020-12-14 10:08:37 1166 1

原创 机械臂论文笔记(五)【2020抓取检测】机器人目标抓取区域实时检测方法 卢智亮

针对目前机器人目标抓取区域检测方法无法兼顾检测准确率和实时性的问题,提出一种基于 SE-Retina Grasp神经网络模型的机器人目标抓取区域实时检测方法。该方法首先以一阶目标检测模型RetinaNet为基础提取抓取框位置及抓取角度;针对抓取检测任务采用 SENet结构确定重要的特征通道;结合平衡特征金字塔设计思想,充分融合高低层的特征信息,以加强小抓取框的检测性能;在Cornell数据集上进行实验验证,结果表明该方法在取得更高检测准确率的同时,提高了抓取检测的效率,达到实时检测的要求。

2020-12-13 11:47:11 4248

原创 械臂论文笔记(四)【2020抓取检测】Antipodal Robotic Grasping using Generative Residual Convolutional Neural Network

摘要Abstract— In this paper, we present a modular robotic system to tackle the problem of generating and performing antipodal robotic grasps for unknown objects from the n-channel image of the scene. We propose a novel Generative Residual Convolutional Neur

2020-12-12 17:43:15 3319 3

原创 械臂论文笔记(三)【抓取检测】机器人抓取检测技术的研究现状 刘亚欣

作为机器人在工厂、家居等环境中最常用的基础动作,机器人自主抓取有着广泛的应用前景,近十年来研究人员对其给予了较高的关注,然而,在非结构环境下任意物体任意姿态的准确抓取仍然是一项具有挑战性和复杂性的研究. 机器人抓取涉及3个主要方面:检测、规划和控制. 作为第1步,检测物体并生成抓取位姿是成功抓取的前提,有助于后续抓取路径的规划和整个抓取动作的实现. 鉴于此,以检测为主进行文献综述,从分析法和经验法两大方面介绍抓取检测技术,从是否具有抓取物体先验知识的角度出发,将经验法分成已知物体和未知物体的抓取,并详细描述

2020-12-11 11:10:03 6531 2

原创 机械臂论文笔记(二)【实时抓取点检测】Real-Time Grasp Detection Using Convolutional Neural Networks

Real-Time Grasp Detection Using Convolutional Neural NetworksAbstract— We present an accurate, real-time approach torobotic grasp detection based on convolutional neural networks.Our network performs single-stage regression to graspable bounding boxes wit

2020-12-07 20:51:11 4892 12

人脸识别素材 4张人脸图

人脸识别素材 4张图

2022-11-29

22-8-6 mmaction2 slowfast训练配置 训练日志分析

包含配置文件: 训练日志:20220805_165139.log.json 训练配置:my_slowfast_kinetics_pretrained_r50_4x16x1_20e_ava_rgb.py 训练配置(为了测试训练集的效果):my_slowfast_kinetics_pretrained_r50_4x16x1_20e_ava_rgb2.py

2022-08-06

22-8-4 mmaction2 slowfast训练日志

22-8-4 mmaction2 slowfast训练日志 包含配置文件:my_slowfast_kinetics_pretrained_r50_4x16x1_20e_ava_rgb.py 训练结束后使用最好的checkpoint的参数进行测试,将测试结果存储在:part_0.pkl 训练过程的记录:20220804_185539.log.json

2022-08-05

archery.mp4 行为识别 pytorchvideo demo演示视频(行为识别)

https://pytorchvideo.org/docs/tutorial_torchhub_inference#load-an-example-video archery.mp4 pytorchvideo demo演示视频

2022-07-30

archery.mp4 行为识别 pytorchvideo demo演示视频(行为识别)

https://pytorchvideo.org/docs/tutorial_torchhub_inference#load-an-example-video archery.mp4 pytorchvideo demo演示视频

2022-07-30

pretrained model on ucf24

ucf_dla34_K7_rgb_coco.pth pretrained model on ucf24

2022-07-20

课堂学习行为测量系统的设计与实现_张鸿宇.caj

课堂是学校教育的核心,课堂教学过程评价对于教学质量的提高有重要意义,而学生的课堂行为表现是课堂教学评价的重要成分。通过评价学生的课堂行为,形成有效的反馈信息和教学导向,可以有效的促进课堂教学和学生的发展。因此,利用现在的计算机视觉技术和教学过程的相关测量手段相结合,对教室中的学生学习行为进行测量,形成对学生、对课堂的多维度的客观评价和反馈,对于提高课堂内的教学效率和教学质量有着重要的意义。本文在课堂学习场景下,研究了基于体感信息的学习者动作识别的算法以及相关应用系统的设计和实现。 论文的主要贡献是设计并实现了课堂学习场景下基于体感信息的多学习者行为测量系统:针对的Kinect骨骼数据特点,本文提出了基于人体上肢骨骼结构的姿态识别方法,该方法通过选用结构向量间的向量角和向量模比值作为最终的姿态向量特征,采用SVM分类器对姿态向量特征进行分类和识别;实现了一个集数据采集、识别、记录、分析和展示于一体的课堂行为识别系统,对课堂交互活动行为分析和课堂整体活跃态势进行了分析,并使用该系统进行了针对学习者个人评价和针对课堂活跃度评价的实验。 通过测试结果表明,本文提出的姿态识别方法能有效地识别多个学习者的举手、正坐和低头等姿态,该课堂行为识别系统具有一定的实用性;通过模拟课堂实验得出对于学生个人的参与度评价、每道题的难度评价、整个课堂活跃度的评价的实验性结论,对于课堂教学过程评价具有一定的参考意义。

2021-04-15

基于深度学习的行为检测方法综述_高陈强.caj

行为检测在自动驾驶、视频监控等领域的广阔应用前景使其成为了视频分析的研究热点。近年来,基于深度学习的方法在行为检测领域取得了巨大的进展,引起了国内外研究者的关注,对这些方法进行了全面的梳理和总结,介绍了行为检测任务的详细定义和面临的主要挑战; 从时序行为检测和时空行为检测 2 个方面对相关文献做了细致地分类,综合分析了每一类别中不同研究方法的思路和优缺点,并阐述了基于弱监督学习、图卷积神经网络、注意力机制等新兴研究话题的相关方法; 介绍了行为检测领域常用的数据集以及性能评估指标,在这些数据集上比较了几种典型方法的性能; 总结了当前行为检测方法需要解决的问题以及进一步发展的研究方向。

2020-12-25

机器人抓取检测技术的研究现状_刘亚欣.caj

基于学习的方法 机器学习方法已被证明对广泛的感知问题有效[32-36], 允许感知系统学习从一些特征集到各种视觉特性的映射[37]. 研究人员更是将深度学习引入抓取检测中,将学习方法应用于视觉中,引入学习方法对抓取质量进行评分[38]. 近期的文献采用了更丰富的特征和学习方法,允许机器人抓取部分被遮挡的已知物体[39] 或已知物体未知姿态[40] 以及系统之前未见过的全新物体(未知物体)[41],本文将讨论后一种情况. 早期的工作集中在仅从2D部分视图数据中检测单个抓取点,使用启发式方法基于此点确定机械手姿态[41]. 由于只有二维信息,第三维度的距离必须是固定的,抓取具有局限性,而3D数据的

2020-12-11

Real-Time Grasp Detection Using Convolutional Neural Networks

我们提出一种准确而且可以达到实时性能要求基于卷积神经网络的,机器人抓取检测方法。我们的抓取方法没有使用常见的滑动窗口或者区域选择技术,我们的网络只是使用single-stage回归去找到可抓取的包围检测框。模型的表现性能比当前最先进的方法也要高出十四个百分点(我想这里应该说的是准确率)。同时可以在单张GPU上能达到每秒十三帧图像的性能。我们的网络可以在对物体进行分类的同时,也可以做到找出可抓取部位的检测矩形框。在这个模型上我们也做了一些修改,使它可以对单个物体上预测多个抓取部位,实现的方法是基于一个局部受限预测机制,基于该机制的模型表现更好,尤其是物体有多个抓取方式的时候。

2020-12-10

苹果采摘机器人末端执行器无损主动抓取技术研究

在果蔬生产过程中,采摘环节是最耗时和耗力的环节,人工采摘的成本约占整个生产成本的 50%~70%。开展采摘机器人研究,不仅有利于解决人口老龄化和社会城镇化导致的劳动力日益短缺问题,还能促进我国农业科技进步,加速实现农业现代化。由于果蔬组织柔软、易损伤且生长程度不一,相互差异较大,导致采摘的损伤率较高。因此开展末端执行器抓取规划和控制策略的研究对实现采摘机器人的无损采摘具有重要意义,本文从采摘机器人末端执行器稳定抓取规划以及抓取力主动柔顺控制两个角度出发对采摘机器人无损抓取技术进行研究,主要研究内容如下: (2) 以力封闭作为理论基础,分析了两指稳定抓取条件,制定了两指稳定抓取策略。同时根据三

2020-11-24

基于卷积神经网络的二指机械手抓取姿态生成研究_李耿磊

本课题立足机械手自主抓取,研究利用卷积神经网络实现物体表面抓取点生成的解决方案。本课题以场景的深度图像作为输入信息,采取 “先采样,后预测”的两步走抓取生成方案。首先利用 Laplace 方法在深度图像中提取物体边缘像素点,并利用对跖法生成抓取空间;然后基于重要性采样方法从抓取空间中采样获得候选抓取集,最后利用训练好的抓取预测卷积神经网络模型预测候选集每个抓取的成功置信度,取其中极大者作为结果指导机器人完成抓取。 为将卷积神经网络应用于抓取预测,本课题建立了基于卷积神经网络的抓取预测模型。将抓取预测问题抽象为深度学习中的分类问题,网络输出为某抓取点属于成功抓取的置信度。本课题定义一组抓取为

2020-11-22

室内环境下移动机械臂的目标抓取技术.caj

随着科学技术的发展,机器人在人类的生产生活中扮演着越来越重要的角色。移动 机械臂是指以移动机器人为平台,在平台上安装机械臂的设备。移动机械臂不仅具有移机器人的环境感知和自主导航功能,还具有机械臂灵活的操作能力,被广泛的应用于工业生产、智能服务、太空工作及侦查排爆等领域。本文以移动机械臂的侦察排爆为背景,围绕移动机械臂的目标抓取任务,重点研究室内环境中移动机械臂的建图与导航、目标检测与抓取等关键技术。本文的主要工作包括以下几个方面: (1) 在Turtlebot2移动机器人平台上搭建PhantomX_ARM机械臂构成移动机械臂,并搭建 RPLIDAR A2 激光雷达传感器与 Xt

2020-11-20

智能工业机器人的环境感知与运动规划.caj

智能机器人是指能够自主完成特定任务的机器人,而对环境感知和运动规 划的研究则有助于提高机器人的自主性,使其更加智能化。环境感知主要是通 过各类视觉传感器采集点云或图像数据,并由计算机进行分析处理后,使机器 人系统能够获得环境中物体的各类信息。运动规划则是在环境感知的基础上, 通过规划出一条无碰轨迹来实现机器人的运动控制。 本文首先介绍各类传感器的标定方法,用以实现不同数据在坐标系下的统 一。在分析现有标定算法的基础上,利用 Navy 手眼标定法优化计算最小二乘 解,从而使标定精度达到毫米级;而基于两步法的单线激光传感器标定方法则 是在保证精度足够的前提下,有效地减少了计算量,从而提高了算法效

2020-11-19

_移动机器人SLAM与路径规划方法研究.caj

自动搬运是现代物流仓库实现自动化、智能化的基础。自主移动机器人 相对于传送带与传统AGV,面对未知环境有探索和决策能力,具有柔性强、 可重构环境的优点。本文对自主移动机器人同时定位与地图构建、路径规 划方法进行了深入研巧,主要内容如下: 首先,同时定位与地图构建方法研究。建立了本研究的系统模型W及 同时定位与建图的数学模型,分析其关键问题。然后,分别对郎F-SLAM和 FAST-SLAM算法进行原理分析和仿真分析。仿真实验表明;两种算法均可W 取得较好仿真效果,但FAST-SLAM算法的追踪误差较小、更适应实际环境。 其次,提出了蜘蛛群居算法的改进策略。为了提高

2020-11-16

基于ROS视觉定位的机器人智能抓取系统研究_王海玲

随着科技的飞速发展,机器人应用变得越加广泛。如今,在线示教和离线编程是工业生产线中控制机器人常见的控制方式,但是由于受到抓取目标物体的初始位姿和最终位姿被严格限定的问题,只能依靠机械完成机器人点到点的操纵,全程所用时间长、操作效率低以及定位准确度也低,因此,机器人在智能化程度上有一定程度的欠缺。在此问题的基础上,本课题提出一套基于ROS(机器人操作系统)视觉定位的机械臂智能抓取系统,使抓取目标的初始位姿和最终位姿被严格限定的问题得到解决。首先,采用张正友算法标定RGB-D相机,获取其内外参数;其次,采用棋盘格与AR标签两种方法,实现手眼标定;然后,通过多模态信息进行物体的识别与位姿估计;最终,

2020-11-06

SLAM第四讲作业及资料.zip

我们在现实生活中能看到大量的照片。在计算机中,一张照片由很多个像素组成,每 个像素记录了色彩或亮度的信息。三维世界中的一个物体反射或发出的光线,穿过相机光 心后,投影在相机的成像平面上。相机的感光器件接收到光线后,产生了测量值,就得到 了像素,形成了我们见到的照片。这个过程能否用数学原理来描述呢?本讲,我们首先讨 论相机模型,说明投影关系具体如何描述,相机的内参是什么。同时,简单介绍双目成像 与 RGB-D 相机的原理。然后,介绍二维照片像素的基本操作。最后,我们根据内外参数 的含义,演示一个点云拼接的实验

2020-06-16

第四讲:相机模型与非线性优化.pptx

我们在现实生活中能看到大量的照片。在计算机中,一张照片由很多个像素组成,每 个像素记录了色彩或亮度的信息。三维世界中的一个物体反射或发出的光线,穿过相机光 心后,投影在相机的成像平面上。相机的感光器件接收到光线后,产生了测量值,就得到 了像素,形成了我们见到的照片。这个过程能否用数学原理来描述呢?本讲,我们首先讨 论相机模型,说明投影关系具体如何描述,相机的内参是什么。同时,简单介绍双目成像 与 RGB-D 相机的原理。然后,介绍二维照片像素的基本操作。最后,我们根据内外参数 的含义,演示一个点云拼接的实验

2020-06-16

SLAM第三讲作业资料.zip

上一讲,我们介绍了三维世界中刚体运动的描述方式,包括旋转矩阵、旋转向量、欧 拉角、四元数等若干种方式。我们重点介绍了旋转的表示,但是在 SLAM 中,除了表示之 外,我们还要对它们进行估计和优化。因为在 SLAM 中位姿是未知的,而我们需要解决什 么样的相机位姿最符合当前观测数据这样的问题。一种典型的方式是把它构建成一个优化 问题,求解最优的 R; t,使得误差最小化。 如前所言,旋转矩阵自身是带有约束的(正交且行列式为 1)。它们作为优化变量时, 会引入额外的约束,使优化变得困难。通过李群——李代数间的转换关系,我们希望把位 姿估计变成无约束的优化问题,简化求解方式。由于读者可能还没有李群李代数的基本知 识,我们将从最基本的开始讲起。

2020-06-10

第二讲:三维空间的刚体运动.pptx

一个刚体在三维空间中的运动是如何描述的。我们当然知道这由一次旋转加一次 平移组成。平移确实没有太大问题,但旋转的处理是件麻烦事。我们将介绍旋转矩阵、四 元数、欧拉角的意义,以及它们是如何运算和转换的。在实践部分,我们将介绍线性代数 库 Eigen。它提供了 C++ 中的矩阵运算,并且它的 Geometry 模块还提供了四元数等刚 体运动的描述。 Eigen 的优化非常完善,但是它的使用方法有一些特殊的地方,我们会在 程序中介绍

2020-06-09

Transformer 论文+李沐视频+李宏毅视频 代码逐行跟踪

Transformer 论文+李沐视频+李宏毅视频 代码逐行跟踪

2024-09-10

生成式人工智能对课堂教学的变革影响 文 - 孙 众

人工智能的发展经历了从计算智能、感知智能到认知智能的三代进化历程。当机器已具备认知智能时,若 课堂教学仍以布卢姆认知目标分类法为理论指导,以培养学生认知能力为主要目标,必然面临重大危机。 要实现生成式人工智能深度融入学校教育教学,为课堂教学带来教育新质生产力,文章提出“四个更重要” 的教学主张:掌握专家思维比专家结论更重要;经历学习过程比呈现学习结果更重要;改变评价理念比改 变评价形式更重要;重视科学教育的同时,培养人文精神更重要。 关键词:生成式人工智能;认知智能;认知目标分类;课堂教学

2024-08-28

我国 2013-2023 年课堂视频分析的研究现状 * -基于 CiteSpace 的可视化林芷洁,杨玉宝

我国2013-2023年课...CiteSpace的可视化_林芷洁 【摘  要】课堂视频分析已成为教师、学生、教育管理者数字素养提升和实现教育高质量发展的重要工具。为探 究国内课堂教学视频分析研究的现状,文章以中国知网 2013-2023 年收录的 276 篇核心文献为计量分析对象,通过 CiteSpace 可视化分析,发现“视频分析”“课堂互动”“话语分析”和“人工智能”等成为课堂视频分析的研究热点, 且在分析技术和分析工具及应用效果等方面取得了显著进展,特别是人工智能技术有望成为推动该领域发展的新技术。 未来,需要扩大课堂视频分析的研究范围,挖掘和设计以深度学习为导向更能反映学科特点的视频分析编码系统,聚 焦师生的数字素养提升,助力新质生产力的发展。 【关键词】课堂视频分析;可视化分析;课堂互动;CiteSpace

2024-08-28

表情分类模型-基于人脸 emotion.pth

['angry', 'disgust', 'fear', 'happy', 'neutral', 'sad', 'surprise']

2024-08-20

生成式 AI 商业落地白皮书 给 CXO 的 AI 转型战术指南

生成式 AI 商业落地白皮书 给 CXO 的 AI 转型战术指南 01 场景案例大全 Gen-AI 240 应用全场景地图 消费零售 金融 汽车 医药大健康 智能终端 教育和科研 制造 企业服务 案例 01 飞鹤“3+3+2”战略蓝图 AI 能力中台建设 案例 05 汽车销售顾问的强大助手“SalesCopilot” 案例 02 海底捞 x 豆包大模型智慧洞察用户需求 案例 03 海尔消金携手火山引擎,共建消费金融大模型 案例 04 捷途汽车 x 豆包大模型打造智能客服“AI 小捷” 案例 06 北京协和医院基于豆包大模型和 HiAgent 研发智能运 维助手和 HIS 指南针 案例 08 OPPO × 火山引擎通过大模型强化手机终端识别、理解 和响应用户需求的能力 案例 10 面向生物医学领域打造一站式、智能化 AI 操作系统 Bio-OS 案例 09 华硕与火山引擎合作将大模型集成至“豆叮 AI 助手” 案例 11 火山引擎助力南开大学打造“AI + 教育”新生态 案例 12 大模型改善企业信息搜索体验 案例 13 豆包大模型助力晓多科技“AI 训练场 与 全渠道智能知 识库”智

2024-07-28

读论文Rethinking the Role of Demonstrations What Makes In-Context

【读论文】Rethinking the Role of Demonstrations What Makes In-Context Learning Work

2024-03-09

读论文Rethinking the Role of Demonstrations What Makes In-Context

【读论文】Rethinking the Role of Demonstrations What Makes In-Context Learning Work

2024-03-09

YOLOv8 代码包 修改版

YOLOv8 代码包

2023-09-21

ckpt.t7 DHN.pth osnet-x0-25.pth yolov7

https://github.com/Whiffe/Yolov7-tracker

2023-08-24

ckpt.t7 DHN.pth osnet-x0-25.pth yolov7

https://github.com/Whiffe/Yolov7-tracker

2023-08-24

rfb-face-mask.pth

面部表情识别模型权重 https://github.com/Whiffe/PyTorch-Facial-Expression-Recognition

2023-08-09

latest-model-099-94.7200.pth

面部表情识别模型权重 https://github.com/Whiffe/PyTorch-Facial-Expression-Recognition

2023-08-09

best.pth.tar

https://github.com/choyingw/SynergyNet best.pth.tar

2023-08-05

aflw2000-data.zip

https://github.com/choyingw/SynergyNet aflw2000_data.zip

2023-08-05

3dmm-data.zip

https://github.com/choyingw/SynergyNet 3dmm_data.zip

2023-08-05

EGE C/C++ 贪吃蛇

EGE C/C++ 贪吃蛇

2023-07-05

适用于Yolo训练和测试的coco数据集标签文件 train2017.txt和val2017.txt

适用于Yolo训练和测试的coco数据集标签文件 train2017.txt和val2017.txt和train2017.zip和val2017.zip yolov7 yolov5 yolov8

2023-05-06

yolov7 hand detection

yolov7 hand detection

2022-12-12

Youtube-Hands yolov7 detection

Youtube-Hands yolov7 detection

2022-12-12

face-dataset img 人脸识别 样例

face_dataset img 人脸识别 样例

2022-11-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除