DeepLearning
wzw12315
这个作者很懒,什么都没留下…
展开
-
准确率(Precision)、召回率(Recall)、F值(F-Measure)、平均正确率,IoU
准确率(Precision)、召回率(Recall)、F值(F-Measure)、平均正确率(Average Precision, AP),IoU_初识-CV的博客-CSDN博客_平均正确率转载 2022-04-15 16:49:10 · 549 阅读 · 0 评论 -
深度学习设计
1、目标检测领域:不提倡使用预测框坐标与GT坐标的差值进行损失函数统计,因为坐标差值会受坐标尺寸大小影响,坐标尺寸大的时候,差值相对大,坐标尺寸小,差值相对小。改进:使用IOU,IOU不受坐标尺寸因素的影响。(两种坐标表示方法:(左上角,右下角)(中心点,长,宽))...原创 2020-06-26 12:27:37 · 498 阅读 · 0 评论 -
深度学习评估参数
True Positive(TP):原来是正样本,预测结果为正样本;目标识别中,把目标给框出来了True Negative(TN):原来是负样本,预测结果为负样本;目标识别中,负样本就是背景之类False Positive(FP):原来是负样本,预测结果为正样本→ 误报 (Type I error);目标识别中,把背景识别成某个目标了False Negative(FN):原来是正样本,预测结果为负样本→漏报 (Type II error)。目标识别中,没有把目标识别出来,把他看成是背景了精..原创 2020-06-10 14:49:19 · 622 阅读 · 0 评论 -
李宏毅深度学习课程笔记 -卷积神经网络
1、卷积神经网络特适合image处理,其设计理念:现象1:现象2:现象3:总结summary:(1)对于图像中的patterns(比如猫的耳朵,嘴巴等),通常比整张图像小很多。神经网络的每一个neuron,相当于一个basic classifier,只对其识别的pattern激活。故设计卷积神经网络处理图像时,设计每一层卷积包含多个卷积核filter,每一个filter负责识别一个pattern。其实卷积层的每一个filter相当于full connect layer的一原创 2020-05-30 11:01:16 · 254 阅读 · 0 评论 -
A Beginner guide to Deep Learning based Semantic Segmentation using Keras
A Beginner's guide to Deep Learning based Semantic Segmentation using KerasDivam Gupta06 Jun 2019Pixel-wise image segmentation is a well-studied problem in computer vision. The task of sema...原创 2020-05-28 09:44:13 · 493 阅读 · 0 评论 -
Depthwise Separable Convolution详解
常规卷积运算假设输入层为一个大小为64×64像素、三通道彩色图片。经过一个包含4个Filter的卷积层,最终输出4个Feature Map,且尺寸与输入层相同。整个过程可以用下图来概括。此时,卷积层共4个Filter,每个Filter包含了3个Kernel,每个Kernel的大小为3×3。因此卷积层的参数数量可以用如下公式来计算:N_std = 4 × 3 × 3 × 3 = 1...原创 2020-05-27 17:07:41 · 678 阅读 · 0 评论 -
神经网络的参数
我们知道,在Keras编程中,通过model.summary()可以打印出网络的结构,包括层类型,输出层大小,参数。如下图所示:由上图可以知道,(1)pooling层是没有参数,(2)设卷积核大小为K,输入通道数为C,卷积核的个数为N,conv2d_1卷积层的参数:K*K*C*N+N,代入数据得 3*3*3*64+64=1792 传统卷积层的工作流程是:卷积...原创 2020-03-27 13:58:11 · 1081 阅读 · 0 评论 -
deep-learning-with-python-notebooks 2.1 keras实现mnist识别
import kerasfrom keras.datasets import mnist(x_train, y_train), (x_test, y_test) = mnist.load_data()from keras import modelsfrom keras import layersfrom keras.utils import to_categorical...原创 2019-05-31 09:46:35 · 177 阅读 · 0 评论 -
darknet yolo v3 网络结构
0~74层为深度残差结构的基础网络,主要用于特征提取; [net]batch=1subdivisions=1width=416height=416channels=3momentum=0.9decay=0.0005angle=0saturation = 1.5exposure = 1.5hue=.1 learning_rate=0.001burn_in=1000max_batches...原创 2018-07-20 14:16:11 · 2520 阅读 · 0 评论 -
darknet
原创 2018-06-11 19:19:04 · 1303 阅读 · 0 评论 -
darknet maxpool_layer deep learning
#include "maxpool_layer.h"#include "cuda.h"#include <stdio.h>image get_maxpool_image(maxpool_layer l){ int h = l.out_h; int w = l.out_w; int c = l.c; return float_to_image(w...原创 2018-06-29 11:26:17 · 1133 阅读 · 0 评论 -
谷歌官方:反向传播算法图解
谷歌官方:反向传播算法图解2018-06-29 12:39谷歌来源:google-developers.appspot.com【新智元导读】反向传播算法(BP算法)是目前用来训练人工神经网络的最常用且最有效的算法。作为谷歌机器学习速成课程的配套材料,谷歌推出一个演示网站,直观地介绍了反向传播算法的工作原理。网站地址:https://google-developers.appspot.com/mac...转载 2018-06-29 14:48:26 · 1319 阅读 · 0 评论 -
神经元建模 激活函数
1、sigmoid函数缺点:当输入大于或者小于某一个值以后,函数的导数为0,也就是说函数的梯度为0。梯度为0的话,就没法更新网络参数了,网络永远没法收敛,导致梯度消失的现象。所以一般不使用sigmoid函数作为激活函数。 2、relu函数优点:可以解决梯度消失的问题,当输入x大于0的时候,函数导数为常数1。 函数梯度的求解非...原创 2018-07-03 20:46:58 · 709 阅读 · 0 评论 -
过拟合 及 解决方法
什么是过拟合?网络对当前训练的数据分类效果特别好;但是对测试数据的分类效果却不好的现象。神经网络过拟合的现象非常非常普遍,而这种现象导致的结果也是非常严重的。解决方法:正则化 对网络的权重参数进行惩罚。图一过拟合现象非常严重,泛化能力比较弱,主要是惩罚因子比较小,多网络权重参数惩罚力度过小导致的,图二稍微过拟合,图三的效果就比较好,泛化能力比较强。...原创 2018-07-03 21:01:56 · 750 阅读 · 0 评论 -
数据预处理和权重初始化
图二是0中心化数据:每一个数据样本除以所有的样本均值得到。缺点:数据Y轴变化幅度(抖动幅度)比X轴要大;图三是归一化数据:需要求数据样本的方差。数据x和y值都在0,1之间。 权重初始化:1、网络权重不能够(全部?部分?)初始化为0;2、网络权重不能全部初始化为同一个数值,比如1?,2?,这样都不好。这样网络在反向传播更新权重的时候,都是朝着同一个方向进行更新,没有侧重点来更...原创 2018-07-03 21:21:08 · 1161 阅读 · 1 评论 -
darknet yolo average_pooling_layer
#include "avgpool_layer.h"#include "cuda.h"#include <stdio.h>avgpool_layer make_avgpool_layer(int batch, int w, int h, int c){ fprintf(stderr, "avg %4d x%4d x%4d -...原创 2018-06-28 16:08:46 · 819 阅读 · 0 评论 -
darknet yolo v3 route layer
route layer层主要是把输入层连接在一起,在darknet 网络结构中,要求输入层对应的width、height必须相等,如果不相等,则把route layer层的输出w,h,c都设置为0。例如输入层1:26*26*256 输入层2:26*26*128 则route layer输出为:26*26*(256+128) route_layer parse_route(lis...原创 2018-07-19 13:38:31 · 7547 阅读 · 0 评论 -
卷积神经网络
1、卷积核 卷积核的深度应该和被卷积的图像的深度一致; 卷积后输出的特种映射的深度和卷积核的数量相关,有n个卷积核参与卷积操作,卷积后的特征映射的深度就是n。2、卷积操作 卷积操作,内积操作,即卷积核对应元素与被卷积图像对应元素相乘后再相加,得到一个值;然后各个通道得到的值相加后再加上偏置值,然后送入到激活函数进行非线性变换。3、pading操作 为了更好地利用边缘特征,...原创 2018-07-07 13:34:36 · 281 阅读 · 0 评论 -
yolo v1 detection_layer.c
数据标签的排序格式,即net.truth内存的排列方式:第1个格子是否包含物体的confidence|第1个格子中20个种类的confidence|第1个格子中物体的坐标;第2个格子是否包含物体的confidence|第2个格子中20个种类的confidence|第2个格子中物体的坐标;...第49个格子是否包含物体的confidence|第49个格子中20个种类的confidence|第49个格...原创 2018-07-13 15:32:27 · 909 阅读 · 0 评论 -
data augmentation
1、水平翻转 horizontal flips2、随机剪切或缩放 random crops/scales3、translate4、rotate5、原创 2018-07-07 21:44:46 · 321 阅读 · 0 评论