深度再学习
文章平均质量分 63
跟着沐神再次系统的学一次
努力学CV
这个作者很懒,什么都没留下…
展开
-
Python中参数命令行运行的简单使用
介绍参数行命令执行Python原创 2023-09-20 22:02:46 · 205 阅读 · 0 评论 -
数据增强之改变RGB通道的强度
对每张训练图像,将找到的主成分的倍数相加,其大小与对应的特征值成比例,乘以一个从均值为0,标准差为0.1的高斯中抽取的随机变量。色彩抖动(Color Jittering)是一种常见的数据增强方法,用于改变图像的色彩信息,增加数据的多样性和鲁棒性。饱和度抖动(Saturation Jittering):通过随机增加或减少图像中颜色的饱和度,改变RGB通道的数值来调整图像的色彩鲜艳度。需要注意的是,对于每个样本,色彩抖动的变换参数可以是随机的,也可以是固定的,并根据任务和数据集进行调整以获得最佳效果。原创 2023-08-21 13:40:13 · 365 阅读 · 0 评论 -
如何读论文?
将文章快速过一遍,每一个部分都不要落下,但也不是说都要弄明白,重要的图表是需要一点一滴弄清楚;相关文献圈出来,如果文章太难读不懂,可以去读读引用的文献。用代入的视角去读文章,想想自己做会怎么做,或者哪一步作者为什么要这么做,做到读完就像是自己做的实验,能够自己讲明白。读完这些基本就知道论文在讲什么,结果怎么样,是否适合自己。首先,一篇论文从结构上大致可以分为以下六部分。读标题和摘要,然后直接跳转到结论部分。李沐老师介绍了一个三遍阅读法。原创 2023-08-14 13:12:53 · 95 阅读 · 0 评论 -
如何理解卷积后通道增多/卷积后特征图尺寸的变化
相反,当使用小卷积核时,可以考虑使用较大的步幅。较大的卷积核和较小的步幅可以捕捉更大范围的特征,但会导致特征图尺寸的减小。相反,较小的卷积核和较大的步幅会产生更多的特征图,但可能捕捉到更局部的特征。通过这些层的组合,LeNet网络能够从输入的图像中提取出不同层次的特征,并进行有效的图像分类。每一层的具体参数(卷积核大小、池化操作的窗口大小等)以及网络的整体结构可以根据实际任务进行调整和修改,以适应不同的图像处理和分类问题。较低层的通道可以学习到更加基础的特征,而较高层的通道可以学习到更抽象和语义类的特征。原创 2023-08-09 10:59:16 · 2402 阅读 · 0 评论 -
优化器的使用
在给定的代码中,net.parameters() 是一个网络模型 net 的参数列表,我们将这些参数作为优化器的优化目标。在深度学习中,通过最小化损失函数来优化模型参数是一个常见的任务,而 SGD 是一种常用且简单的优化算法,用于在训练过程中更新参数以最小化损失函数。因此,在深度学习网络训练中,优化器和损失函数是紧密配合的,并且需要一起定义和使用,以实现权重的更新和模型的优化。深度学习网络训练时,优化器和损失函数是需要一起定义和使用的,它们共同完成了模型参数的更新和优化的过程。原创 2023-08-08 12:15:40 · 170 阅读 · 0 评论 -
模型训练(以LeNet为例)
定义了一个函数 train,接受模型 net、训练集迭代器 train_iter、测试集迭代器 test_iter、迭代的轮数 num_epochs、学习率 lr 和设备类型 device 作为输入参数。创建一个计时器对象 timer,用于计算训练每个 epoch 所需的时间,并且获取训练集迭代器 train_iter 的长度作为总批次数 num_batches。调用 apply 方法,将 init_weights 函数应用到 net 模型的所有模块的权重上,用于初始化模型的权重。原创 2023-08-07 23:36:20 · 122 阅读 · 0 评论 -
经典卷积网络LeNet
每个卷积模块包含一个卷积层(卷积核为5×5),一个sigmoid激活函数以及一个平均池化层。我们给定输入X,在net中一层一层添加layer,然后每次调用net对X进行处理,打印X的形状就可以清楚地得到每一层输出的形状,进而确定下一层的输入。这种简单的网络我们可以这样计算,对于复杂的网络我们希望能够借助pytorch自动得出(虽然pytorch还没有这种功能,不过我们可以一层一层让它算)池化操作为2×2,步幅为2,能够将维度减少四倍?第一层卷积输出6个通道,第二层卷积输出16个通道;原创 2023-08-06 23:10:31 · 29 阅读 · 0 评论 -
深度再学习第四篇--回归(二)--softmax
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考提示:这里对文章进行总结:例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。原创 2023-08-05 23:11:03 · 28 阅读 · 0 评论 -
池化层小结
它的主要作用是减小特征图的空间尺寸,同时保留特征图的主要特征。池化层可以通过降低特征图的空间维度,减少模型参数量,提高计算效率,并且可以一定程度上增强模型的鲁棒性。最大池化操作将输入的特征图分割为不重叠的矩形区域(通常为 2x2 或 3x3 的窗口),然后从每个区域中选择最大的值作为输出。平均池化操作可以减小特征图的尺寸,并提供平滑的特征表示,有时它可以帮助降低模型对噪声和局部变化的敏感性。需要注意的是,池化层没有可学习的参数,它仅仅是从输入特征图中提取信息,并减小特征图的尺寸。原创 2023-08-05 21:41:18 · 275 阅读 · 0 评论 -
1x1卷积核的作用
降维和增加通道:(输出通道数为卷积核的个数C’)降维的例子:假设有一个输入特征图大小为HxWxC,其中C是通道数。使用一个1x1卷积核,通道数从C减少到C’,其中C’是较小的通道数。这可以通过使用适当的卷积核权重来实现降维效果。增加通道的例子:假设有一个输入特征图大小为HxWxC,将使用多个1x1卷积核,并将它们的输出通道堆叠在一起得到输出特征图大小为HxWxC’,其中C’是较大的通道数。特征图的组合和融合:(特征图的融合主要用于将不同来源的信息结合起来,而特征图的组合主要用于对单个通道内的原创 2023-08-05 15:29:05 · 71 阅读 · 0 评论 -
多通道输入与输出
例如输入图像,图像具有多个通道。通常,彩色图像由红色通道、绿色通道和蓝色通道组成,这被称为RGB图像。每个通道表示相应颜色的强度信息。例如,红色通道表示图像中红色的强度分布,绿色通道表示图像中绿色的强度分布,蓝色通道表示图像中蓝色的强度分布;对于图像分类任务,输出通常是代表不同类别的通道概率分布。每个通道的值表示相应类别的概率。对于目标检测任务,输出通常是一个包含多个边界框和对应类别的通道。每个通道的值表示相应位置上是否存在目标以及目标的类别。原创 2023-08-05 15:15:18 · 168 阅读 · 0 评论 -
填充与步幅
首先,如果不对卷积进行任何操作,那么每一步卷积得到的特征图会越变越小,如果想要控制得到的大小,就需要进行填充:设输入为h x w,卷积核大小为 a x b,那么一步操作后的大小为 h-a+1 x w-b+1如果不想输出缩水,那么可以进行填充padding,在输入的周围加入行/列如果填充p行q列,那么输出为: h-a+p+1 x w-b+q+1可以看出,为了保证输出维度不变,通常取p = a - 1, q = b - 1如果想快速度得到一个较小的输出,那么仅仅依赖于卷积核一层层减小是很慢的,引原创 2023-08-01 11:15:41 · 35 阅读 · 0 评论 -
正则化,权重衰减,Dropout丢弃法
正则化(Regularization)是机器学习中常用的一种技术,通过在模型训练过程中引入附加项或约束来控制模型复杂度,并减少过拟合问题。在机器学习中,模型的目标是通过拟合训练数据来学习输入数据的模式和规律。然而,当模型过于复杂或参数过多时,往往容易出现过拟合的问题,即在训练数据上表现良好,但在新数据上表现较差。过拟合表示模型过度地记忆了训练数据的噪声和细节,而没有很好地捕捉到真正的数据趋势。为了解决过拟合问题,正则化技术被引入。正则化的目标是在模型的损失函数中添加额外的项,以对模型的复杂度进行控制。原创 2023-06-19 12:01:37 · 415 阅读 · 0 评论 -
多层感知机
提示:这里对文章进行总结:例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。原创 2023-06-06 16:26:42 · 38 阅读 · 0 评论 -
感知机相关问题
感知机的输入特征是实数向量,每个输入特征都有一个对应的权重。输入特征向量和权重向量做内积,再加上偏置项得到的值如果超过某个阈值,就会输出一个类别。感知机收敛定理是指,当训练数据是线性可分时,感知机算法一定可以找到一个可以正确分类所有训练数据的超平面,进而保证算法的收敛性。它是一种二分类模型,可以把样本分为两类,根据输入特征向量与权值向量的内积是否超过阈值来进行预测。在if判断这里的条件,如果判断错了,那么这里的乘积就不会大于0;等价于使用了批量大小为1的梯度下降,并使用了如下的损失函数。原创 2023-06-05 22:25:11 · 99 阅读 · 0 评论 -
深度再学习第四篇----softmax进行图片分类
继续学习沐神的深度学习。原创 2023-05-23 20:31:55 · 227 阅读 · 0 评论 -
深度再学习第三篇--迭代器生成器
本文记录迭代器、生成器问题。原创 2023-05-21 16:02:30 · 113 阅读 · 0 评论 -
深度再学习第二篇
本篇记录内容比较杂,皆是学习过程中遇到的各种小问题。把列表中的元素打乱顺序,但不会生成新的列表。原创 2023-05-17 15:47:34 · 38 阅读 · 0 评论 -
深度再学习第一篇
本文记录数据预处理部分内容。原创 2023-05-09 22:31:23 · 77 阅读 · 0 评论