深度学习
小小菜鸡升级ing
小菜鸡,努力成为大佬ing
展开
-
半监督生成对抗网络(gan)在分类和检测任务上的流程
半监督:半监督学习是指监督学习与无监督学习的结合,是在含有少量被标记数据的情况下,利用大量未标记图像进行无监督学习从而改善监督学习的性能。半监督GAN用于分类的步骤:将GAN中判别器的输出层替换成softmax分类器,假设训练数据有C类,则softmax输出C+1类,多一个生成器生成的伪图像的概率。由于判断真伪图像的任务是无监督的,因此我们可以利用到大量的未标注样本来进行训练。训练时将未标注图像和标注图像都送入GAN中,生成器用于生成伪图像,判别器用于判别送入其中的是伪图像还是具体某一个类别的真图像原创 2020-07-16 18:47:24 · 3579 阅读 · 0 评论 -
BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm总结
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 ...转载 2019-11-11 15:52:15 · 238 阅读 · 0 评论 -
经典深度网络对比(结构、效果、参数、准确率等)
经典CNN的效果和参数对比:准确率vs执行效率:原创 2019-09-04 11:02:39 · 1479 阅读 · 0 评论 -
基于深度学习的变化检测算法实现完整代码
详解见: https://blog.csdn.net/weixin_39853245/article/details/91650607代码如下:import tensorflow as tfimport numpy as npimport timeimport cv2 as cv# 读取影像path = 'E:/data changing2/'img1 = cv.imread(pa...原创 2019-07-29 19:20:34 · 6757 阅读 · 17 评论 -
HRnetv2、HRnetv2p论文阅读笔记
本文主要讲述了HRnet在图像分割,人脸检测和目标检测人物的应用。论文:High-Resolution Representations for Labeling Pixels and Regions摘要高分辨率表示学习在许多视觉问题中起着至关重要的作用,如姿态估计和语义分割。高分辨率网络(high-resolution network, HRNet)[91]是近年来发展起来的一种用于人体姿态...原创 2019-07-28 23:30:39 · 2264 阅读 · 1 评论 -
深度学习中的优化方法总结(常见方法,动机,思路和优缺点)
随机梯度下降SGD:梯度下降算法(Gradient Descent Optimization)是神经网络模型训练最常用的优化算法:缺点:选择合适的learning rate比较困难:如果数据是稀疏的,我们会想对出现频率低的特征进行快一点的更新,而高频的进行慢一点的更新,这时候SGD就不太能满足要求了SGD容易收敛到局部最优,并且极容易被困在鞍点上,在这种点所有反向上的梯度值都为0(如果...原创 2019-07-23 22:07:22 · 1456 阅读 · 0 评论 -
cvpr2020论文汇总(包含对各种方向的分类,源码等)
https://github.com/extreme-assistant/cvpr2019原创 2019-07-03 19:32:05 · 626 阅读 · 0 评论 -
Batch Normaliation(批标准化,BN)的作用和缺陷精简总结
BN的作用:(1)加快训练速度,减少了对学习率的要求,可以使用很大的学习率或者较小的学习率,算法也能够快速训练。(2)增加模型的稳定性,有效减少梯度消失/爆炸,提高训练精度。(3)BN具有轻微的正则化效果,在某些情况下可以取消 dropout 和 L2 正则项参数,或者采取更小的 L2 正则项约束参数。(4)减少了人为选择参数的过程(权重的初始化方式,正则化方式的超参数的选择,学习率等)。...原创 2019-05-27 22:31:48 · 2324 阅读 · 2 评论 -
Sigmoid激活函数的理解(函数及其导数的图形表示,作用,优缺点)
Sigmoid函数又称logistic函数,在逻辑回归中经常出现。公式为:Sigmoid函数常被用作神经网络的阈值函数,将变量映射到0,1之间,该函数单调递增且以(0,0.5)对称,在两端变化速度较慢。它是神经网络中的激活函数,其作用就是引入非线性。优点:(1)sigmoid函数单调连续,输出范围有限,所以数据在传递的过程中不容易发散(2)由于输出范围为(0, 1),所以可以用作输...原创 2019-05-07 16:26:25 · 13023 阅读 · 0 评论 -
深度学习面试专用:深度学习500问;文字版吴恩达深度学习,机器学习
文字版吴恩达机器学习,深度学习地址:http://www.ai-start.com/深度学习500问地址:https://github.com/fengdu78/DeepLearning-500-questions,妈妈再也不用担心知识点会有疏漏啦...原创 2019-05-07 22:48:43 · 291 阅读 · 0 评论 -
梯度消失和梯度爆炸原因,表现,解决方案
参考:https://blog.csdn.net/qq_25737169/article/details/78847691参考:https://www.cnblogs.com/DLlearning/p/8177273.html一、梯度消失出现的原因:在深层网络中,如果激活函数的导数小于1,那么靠近输入层的参数的梯度因为乘了很多的小于1的数而越来越小,最终就会变为0,例如sigmoid函数,其...原创 2019-05-10 22:58:56 · 2028 阅读 · 1 评论 -
python批量重命名图片
在制作自己的目标检测数据集时我们通常需要把图片的名称变为‘000001’这种格式,下面给出一个批量重命名图片的代码给大家进行参考:import ospath_name=r'G:\data_annimal\data_jiayang1/' # 批量修改的文件夹路径i=0for item in os.listdir(path_name): original_name = os.path....原创 2019-05-22 00:38:02 · 2736 阅读 · 0 评论 -
深度学习面试:用猫和狗的数据做图像分类,分类的效果不好怎么办?
首先,我们可以通过训练集和测试集的误差曲线来判断:1、如果曲线符合过拟合的表现:可以使用droupout,L1,L2正则化,BN,适当增大学习率或减少训练轮次,扩充数据集等方式改善2、如果测试集误差远大于训练集误差,则有两种情况:(1) 数据集有较多的标注错误或者训练集和测试集的数据分布不一致。(2)欠拟合:可以更换模型,增加训练轮次,减小学习率或使用衰减学习率等方式进行改善。解决上述...原创 2019-05-19 19:32:32 · 1720 阅读 · 0 评论 -
1*1卷积的作用
(1)实现信息的跨通道交互和整合。(2)对卷积核通道数进行降维和升维,减小参数量。(3)增加非线性原创 2019-05-19 19:13:54 · 286 阅读 · 0 评论