自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 yolo系列模型介绍-ppt版

yolo算法基本原理:yolov3yolov4yolov5yolox2021/07MEGVII2021yolov6yolov7。

2023-03-22 17:07:12 2857

原创 MindSpore中Cifar数据集的读取及展示

MindSpore中对于常见数据及已经有现成API来进行处理,常见数据集包括:CelebA、Cifar100、Cifar10、Coco、ImageNet、Minist、VOC下面以Cifar10数据集作为例子展示一下接口调用及数据的图片的展示以下为官网提供的API的接口调用及解释:classmindspore.dataset.Cifar10Dataset(dataset_dir,usage=None,num_samples=None,num_parallel_workers=None,...

2021-10-28 11:30:23 1273

原创 MindSpore中张量的定义方式

MindSpore中张量的定义方式张量(Tensor)是MindSpore网络运算中的基本数据结构,构造方式主要有以下几种:首先导入基本模块以及接口import numpy as npfrom mindspore import Tensor, contextfrom mindspore import dtype as mstypecontext.set_context(mode=context.GRAPH_MODE, device_target="CPU")1、根据数据直接生成x = Te

2021-10-11 10:41:52 331

原创 基于MindSpore实现yolov3_darknet53

话不多说,先上一段MindSpore基本介绍MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景覆盖三大目标,其中易开发表现为API友好、调试难度低,高效执行包括计算效率、数据预处理效率和分布式训练效率,全场景则指框架同时支持云、边缘以及端侧场景。MindSpore总体架构如下图所示,下面介绍主要的扩展层(MindSpore Extend)、前端表达层(MindExpression,ME)、编译优化层(MindCompiler)和全场景运行时(MindRT)四个部分

2021-09-09 15:59:11 973

原创 RNN与LSTM的理解

RNN(Recurrent Neural Network)循环神经网络是用于处理序列问题的神经网络,比如时间序列或者文字序列,这类数据有一个特点是后面的数据与前面的数据只有关系的,比如说有一句话:我喜欢吃苹果,但是我___橘子,如果要在横线上填入一个词语的话,很显然,应该填入的是不喜欢、讨厌之类的词语,RNN就是需要网络对这类数据有一个预测的能力。RNN循环神经网络的应用是很广的,比如:语音识别,语言建模,文字翻译,图片描述等,网络有三个主要的特点:1、权值共享,整个网络只有w、u、v三个参数,.

2020-07-29 20:58:06 2089 1

原创 总结神经网络中的正则化方法

正则化与过拟合在论文中,正则化用“regularization”表示,那什么是正则化呢?正则化就是神经网络在学习过程中出现了过拟合情况,具体表现就是在训练集上表现好,在测试集上预测能力差,就是我们所说的泛化能力差,说的更直白一些,就是举一反三的能力差,网络学到了一些不重要的信息,比如说,对于猫狗识别,由于种种原因,网络学习到猫的一项特征是胡须8-10根,下一次来了一只猫只有6根胡须,模型就判定不是猫,很显然这是不正确的,并且这项特征也是我们不需要的。看一下下面这张图,最左边的是欠拟合,中间的就是

2020-07-19 16:54:53 4231

原创 AI深度学习25道基础题目(含答案)

1.请简单介绍一下什么是卷积以及它的原理?答:对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作。卷积神经网络最主要的特点就是局部感知和权值共享。局部感知使其每次只需感知较小的区域,降低了参数数量,也提供了特征拟合能力(特征简单了,拟合更容易)。而权值共享,使一些基本特征可得到重复利用,使参数可以共享,提高了神经网络的训练效果原理...

2020-05-31 21:28:34 11775

原创 YOLO V3学习笔记(基于代码实现的全过程)

最近在学习YOLO V3算法,经过了一段时间的挣扎,目前大概理出了自己的一些思路。与我前面学习的MTCNN算法相比,YOLO不算复杂,代码量也不如MTCNN,但就是在代码实现的时候有些地方比较绕,需要多思考,多理一下自己的思路。YOLO的话,核心思想比较容易理解,不同于RCNN系列two-stage的方法,YOLO利用整张图作为网络的输入,将图片划分为N*N的格子,object的中心点落在哪个格子里,这个格子就负责回归边框及所属类别。在YOLO V3里采用了类似FPN的结构,对26*26和52*52

2020-05-30 00:03:09 795 8

原创 arcface损失函数在mnist数据集上的实现

arcface loss是人脸识别中的损失函数,对于人脸识别还有一个常用的损失函数centerloss,但centerloss存在比较大的缺陷,那就是当类别比较多时,GPU内存要求比较高,比较耗费算力。并且在效果上arcface loss的效果要优于centerloss,因为前者是基于角度,而后者是基于距离,对于分类来说,arcfaceloss的影响更加直接。说起arcfaceloss就不得不提一下向量相关知识。1、什么是向量的相关性?两个向量之间有哪几种相关性? 向量的相关性是指两个...

2020-05-22 22:19:59 1213 1

原创 CenterLoss在Mnist数据集上的实现

centerloss,顾名思义,中心损失函数,它的原理主要是在softmax loss的基础上,通过对训练集的每个类别在特征空间分别维护一个类中心,在训练过程,增加样本经过网络映射后在特征空间与类中心的距离约束,从而兼顾了类内聚合与类间分离,centerloss只是一个辅助损失函数,softmaxloss才是主打,但softmaxloss只能简单的将类分开,还得加上centerloss这一个强力辅助才能保证特征之间不仅具有可分性,同时也具有可判别性。我们都知道,对于分类来说,希望类内距小,类间距大,那c

2020-05-21 20:33:24 936

原创 目标检测中NMS的理解

NMS(Non-Maximum Suppression)翻译过来就是:非极大值抑制,意思就是抑制不是极大值的元素,可以理解为局部最大搜索, 其作用是可以快速去除重合度很高的且标定相对不是很准确的预测框,但是这种方法有一个缺点:对于重合度很高的目标不友好。 NMS在计算机视觉领域有着非常重要的应用,如视频目标跟踪、数据挖掘、3D重建、目标识别以及纹理分析等如下图所示:左图中是网络预测的人脸框,每个框对应一个置信度,那要如何才能得到右边的结果呢?其实也不难,大致分为一下三步:1、对所有置信度

2020-05-21 18:31:53 3041 2

原创 MTCNN中的IOU详解

在MTCNN中,NMS的使用里面最重要的有一环就是IOU,下面就来说一说IOU(Intersection Over Union)的基本原理:IOU的意思是交并比,下图可以看到求IOU过程会遇到的几种情况:情况1:两个框只有部分交集,此时交并比等于交集比并集那在目标检测中遇到这样的情况,已只box1和box2的坐标,如何用代码体现交并比呢?box1和box2的面积倒是不难,那么计算到交集面积就ok了。其实交集面积不难计算,就记住一条:x1,y1的最大值,x2,y2的最小值就是交集部

2020-05-21 18:10:19 735

原创 对MTCNN级联卷积神经网络侦测过程的理解

MTCNN,Multi-task convolutional neural network(多任务卷积神经网络),将人脸区域检测与人脸关键点检测放在了一起。总体可分为P-Net、R-Net、和O-Net三层网络结构,三个网络并行训练,串行使用,这正好体现了MTCNN级联的思想。对于MTCNN整套流程来说,样本数据集制作及模型训练没有太大难度(毕竟论文已经把网络模型给出,照着写下来就行,当然,对于原论文的模型还是有优化空间的),MTCNN的精髓主要体现在侦测上,里面用到了目标检测常用的IOU,NMS以及图

2020-05-21 17:05:50 561

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除