![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
moyu916
这个作者很懒,什么都没留下…
展开
-
CNN每一层都做了什么
本文讲解计算机如何处理图像进行分类的,这里我们以CNN(卷积神经网络)对汪汪图片进行分类为例!1:问题空间 图像分类是对输入图像的操作,最终输出一组最好地描述了...转载 2019-03-17 21:32:28 · 3268 阅读 · 1 评论 -
深度学习模型训练基本步骤
原文转自这里 一.数据预处理二.将数据输入神经网络(每个神经元先输入值加权累加再输入激活函数作为该神经元的输出值)正向传播,得到得分三.将“得分”输入误差函数(正则化惩罚,防止过度拟合),与期待值比较得到误差,多个则为和,通过误差判断识别程度(损失值越小越好)四.通过反向传播(反向求导,误差函数和神经网络中每个激活函数都要求,最终目的...转载 2019-03-13 19:30:58 · 22075 阅读 · 0 评论 -
交叉熵
原文转自这里交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分类问题的时候,没有过多的注意,直接调用现成的库,用起来也比较方便。最近开始研究起对抗生成网络(GANs),用到了交叉熵,发现自己对交叉熵的理解有些模糊,不够深入。遂花了几天的时间从头梳理了一下相关知识点,才算透彻的理解了,特地记录下来,以便日后查阅。信息论交叉熵是信息论中...转载 2019-03-13 19:42:12 · 236 阅读 · 0 评论 -
损失函数
线性回归问题解未知参数==>最小二乘法 loss function选MSEMSE可以用于最大似然估计,最小化MSE与最大化似然函数效果相同。大多数现代的神经网络使用最大似然来训练,这意味着loss function就是负的对数似然。...原创 2019-03-13 20:44:38 · 797 阅读 · 0 评论 -
根据LeNet-5理解CNN训练过程
LeNet-5是一个较简单的卷积神经网络。下图显示了其结构:输入的二维图像,先经过两次卷积层到池化层,再经过全连接层,最后使用softmax分类作为输出层。关于CNN参见:https://blog.csdn.net/qq_42570457/article/...转载 2019-03-22 14:09:10 · 1859 阅读 · 0 评论 -
yolov3源码结构
darknet. pydef get_test_input() #对测试图片进行预处理(图片的大小,GBR通道改成RGB通道)def parse_cfg(cfgfile) #对cfg配置文件进行处理-->输入yolov3.cfg配置文件,返回列表对象,其中每一个元素为一个字典类型对应于一个要建立的神经网络模块(层)class EmptyLayer(nn.Module):clas...原创 2019-03-29 21:10:47 · 814 阅读 · 0 评论 -
空间金字塔池化SPP
空间金字塔池化,使得任意大小的特征图都能够转换成固定大小的特征向量,送入全连接层。对特征图尺寸有要求的部分就是从卷积层到全连接层过渡的那里。因为全连接层Y=W*X,W是固定的。空间金字塔池化如何提取特征,得到固定大小的特征向量:我们假设一个很简单两层网络:输入一张任意大小的图片,假设其大小为(w,h),输出21个神经元。也就是我们输入一张任意大小的特征图的时候,我们希望提取出21个特征。空间...转载 2019-03-31 17:34:11 · 384 阅读 · 0 评论 -
mini-batch SGD 和 backprop
mini-batch SGD 是先将train_data顺序打乱,每次取mini-batch个训练数据进行一次梯度下降与反向传播。取完整个训练集称为一个epoch在⼀个⼩批量数据上的反向传播的全矩阵⽅法 我们对于随机梯度下降的实现是对⼀ 个⼩批量数据中的训练样本进⾏遍历。所以也可以更改反向传播算法使得它同时对 ⼀个⼩批量数据中的所有样本进⾏梯度计算。这个想法其实就是我们可以⽤⼀个矩阵 X = [...原创 2019-05-08 17:01:05 · 250 阅读 · 0 评论