深度学习-基础
文章平均质量分 69
算法Lab
这个作者很懒,什么都没留下…
展开
-
卷积层输出size的计算方式
原创 2020-08-05 09:14:26 · 203 阅读 · 0 评论 -
模型训练步骤
原创 2020-08-05 09:20:19 · 193 阅读 · 0 评论 -
深度学习中的小tips
1.在经过卷积计算之后,通道数随该层中使用的卷积核(滤波器)数量而变化2.特征图是由某个输入通道数的数据经过卷积计算之后产生结果3.把某个输入通道数的数据经过卷积运算之后,得到的结果,这个过程就是特征映射...原创 2020-07-29 08:49:04 · 148 阅读 · 1 评论 -
深度学习入门之池化层浅析
本文转自知乎https://zhuanlan.zhihu.com/p/77040467池化层是当前卷积神经网络中常用组件之一,它最早见于LeNet一文,称之为Subsample。自AlexNet之后采用Pooling命名。池化层是模仿人的视觉系统对数据进行降维,用更高层次的特征表示图像。实施池化的目的:(1) 降低信息冗余;(2) 提升模型的尺度不变性、旋转不变性;(3) 防止过拟合。池化层的常见操作包含以下几种:最大值池化,均值池化,随机池化,中值池化,组合池化等。最大值池化最大值池化转载 2020-08-05 09:07:53 · 647 阅读 · 1 评论 -
深入剖析深度学习中Batch Size大小对训练过程的影响
转载自:浅析深度学习中Batch Size大小对训练过程的影响 - 知乎,侵删之前面试过程中被问到过两个问题:(1)深度学习中batch size的大小对训练过程的影响是什么样的?(2)有些时候不可避免地要用超大batch,比如人脸识别,可能每个batch要有几万甚至几十万张人脸图像,训练过程中超大batch有什么优缺点,如何尽可能地避免超大batch带来的负面影响?-------------------------------面试版回答---------------------------转载 2022-01-25 22:07:18 · 525 阅读 · 0 评论 -
深度学习模型的简单优化技巧
转载自深度学习模型的简单优化技巧 - 宽客在线,侵删本文介绍了几个深度学习模型的简单优化技巧,包括迁移学习、dropout、学习率调整等,并展示了如何用 Keras 实现。以下是我与同事和学生就如何优化深度模型进行的对话、消息和辩论的摘要。如果你发现了有影响力的技巧,请分享。首先,为什么要改进模型?像卷积神经网络(CNN)这样的深度学习模型具有大量的参数;实际上,我们可以调用这些超参数,因为它们原本在模型中并没有被优化。你可以网格搜索这些超参数的最优值,但需要大量硬件计算和时间。转载 2022-01-27 15:58:15 · 1460 阅读 · 0 评论 -
多通道图片的卷积
转载自:多通道图片的卷积_这世界缤纷多彩-CSDN博客_多通道卷积,侵删一、多通道(channels)图片的卷积网上很多资料都是单通道的卷积,很容易理解。但多通道的卷积更普遍,理解较复杂,需要单独提一下。彩色图像,一般都是RGB三个通道(channel)的,因此输入数据的维度一般有三个:(长,宽,通道)。比如一个28×28的RGB图片,维度就是(28,28,3)。前面的引子中,输入图片是2维的(8,8),filter是(3,3),输出也是2维的(6,6)。如果输入图片是三维的呢(即增多了一个c转载 2022-01-27 18:51:01 · 5828 阅读 · 3 评论 -
空洞卷积的rate
转载自:想知道空洞卷积的rate到底是什么? - 知乎,侵删转载 2024-03-13 15:28:56 · 675 阅读 · 0 评论 -
白话mAP
转载自:https://zhuanlan.zhihu.com/p/60834912侵删转载 2021-07-24 14:58:23 · 137 阅读 · 0 评论 -
详解 Deep Learning 的各种优化器(一)
转载自:https://zhuanlan.zhihu.com/p/377141061 侵删.梯度下降是优化神经网络和许多其他机器学习算法的首选方法。本文将介绍各种基于梯度下降的优化器,如 Momentum,Adagrad 以及 Adam 的具体细节本文将讲解以下概念:Gradient Descent Batch Gradient Descent Stochastic Gradient Descent(SGD) Min-batch Gradient Descent Momentum..转载 2021-07-13 10:01:52 · 554 阅读 · 0 评论 -
一文看尽深度学习中的各种池化方法!
转载自:https://zhuanlan.zhihu.com/p/377572391 侵删背景卷积神经网络(Convolution Neural Network, CNN)因其强大的特征提取能力而被广泛地应用到计算机视觉的各个领域,其中卷积层和池化层是组成CNN的两个主要部件。理论上来说,网络可以在不对原始输入图像执行降采样的操作,通过堆叠多个的卷积层来构建深度神经网络,如此一来便可以在保留更多空间细节信息的同时提取到更具有判别力的抽象特征。然而,考虑到计算机的算力瓶颈,通常都会引入池化层,..转载 2021-07-13 09:46:59 · 2525 阅读 · 0 评论 -
一文看尽深度学习中的各种损失函数
转载自:https://zhuanlan.zhihu.com/p/375968083 侵删在机器学习中,损失函数是代价函数的一部分,而代价函数则是目标函数的一种类型[1]。Loss function,即损失函数:用于定义单个训练样本与真实值之间的误差;Cost function,即代价函数:用于定义单个批次/整个训练集样本与真实值之间的误差;Objective function,即目标函数:泛指任意可以被优化的函数。损失函数是用于衡量模型所作出的预测离真实值(Ground Tru..转载 2021-07-13 09:35:02 · 620 阅读 · 0 评论