![](https://img-blog.csdnimg.cn/92fa3edba3754afca75f5751e92b7ab6.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
文章平均质量分 84
对深度学习有关的错误进行安装和记录
Fon |
这个作者很懒,什么都没留下…
展开
-
【CNN】搭建AlexNet网络——并处理自定义的数据集(猫狗分类)
AlexNet和LeNet的架构非常相似,AlexNet和LeNet的设计理念非常相似,但也存在显著差异。首先,AlexNet比相对较小的LeNet5要深得多。AlexNet由八层组成:五个卷积层、两个全连接隐藏层和一个全连接输出层。其次,AlexNet使用ReLU而不是sigmoid作为其激活函数。在AlexNet的第一层,卷积窗口的形状是11 x 11。由于ImageNet中大多数图像的宽和高比MNIST图像的多10倍以上,因此,需要一个更大的卷积窗口来捕获目标。第二层中的卷积窗口形状被缩减为。原创 2022-11-28 22:49:27 · 4288 阅读 · 1 评论 -
【Error Logs】YoloV5出现RuntimeError: result type Float can‘t be cast to the desired output
其实我也玩不明白,也是网上东抄抄,西看看,就纯记录。原创 2022-11-28 20:26:52 · 5163 阅读 · 10 评论 -
【CNN】经典网络LeNet——最早发布的卷积神经网络之一
LeNet主要的出现契机是手写数字的识别,并在邮政和银行发挥了非常重要的角色。但是,这个网络在当时流行度没那么高,但是知名度最高的还是MNIST数据集。所有的都是黑白图。对于LeNet,总体来看,卷积编码层:由两个卷积层组成全连接密集块:由是哪个全连接层组成架构图如下图所示:输入的是28 * 28的单通道图片 得到6输出通道的28 * 28的, 通过池化层,得到6通道14 * 14的特征图,最后通过卷积操作得到16输出通道的特征图,在通过池化得到16通道的5 * 5。原创 2022-11-26 21:54:03 · 3781 阅读 · 1 评论 -
CNN中感受野的定义概念
文章目录1. 人类视觉系统中的感受野2. CNN中感受野的定义3. 总结1. 人类视觉系统中的感受野从百科中理解到,就是一直盯着某个点看,如果保持你的眼球不转动的情况下,此时盯着的这个点是“清晰的”,但是,其他周围区域都是模糊的。而只有转动眼球,才能连续不断的看到不同的区域。从上述中,可以提取到关键信息:总的视野大,可以看到的范围大。只有中心的位置得到了关注。除中心位置之外,其他都是模糊状态。从上述例子中,我们可以了解深度卷积神经网络的感受野(receptive field)2. C原创 2021-11-12 23:09:47 · 4264 阅读 · 0 评论 -
Training and investigating Residual Nets 翻译
博客链接 http://torch.ch/blog/2016/02/04/resnets.htmlTraining and investigating Residual NetsIntroductionResNet的核心想法是很简单明了的。本质上是使用一个标准的前向卷积网络,然后加入跳跃连接来绕过一些卷积层。每次捷连都是一个残差模块,卷积层本质上是预测一个残差然后加到模块的输入上。残差模块的图示如下:深度前向卷积网络受困于优化的难度。当网络超过一定的深度,加入额外的层会导致更高的train .转载 2021-12-17 22:31:02 · 1418 阅读 · 0 评论 -
深度学习softmax函数理解
文章目录一,引入二,softmax是什么?三,为什么 使用exe^xex实现总结一,引入我们为什么要引入这个函数,我们知道在机器学习当中,一些问题大概可以分为两种,一种是分类问题,一种是回归问题。但,分类问题中可以有二分类问题和多分类问题。对于而分类问题,我们可以很容易的想到使用逻辑回归算法。逻辑回归算法本身的逻辑并不复杂,最关键的步骤是将线性模型中输出值通过某种方式映射到[0,1]区间内。通过sigmoid函数可以判断,根据头发等判断是否为男女,肿瘤问题等等。对于softmax可以理解为就是原创 2021-12-03 00:45:17 · 7345 阅读 · 0 评论