![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 58
Keep forward upup
这个作者很懒,什么都没留下…
展开
-
梯度和梯度损失
因此,梯度在图像融合任务中起着重要作用,帮助模型学习更好地生成具有边缘和纹理信息的融合图像。梯度主要用于计算图像融合过程中的梯度损失,对应的损失函数是梯度损失(原创 2024-03-03 12:16:18 · 736 阅读 · 0 评论 -
epoch(当前 epoch 数量)和iters(当前迭代数)
当每个批次的数据都被模型处理过一次后,一个 epoch 结束,此时迭代次数会重新从 1 开始计数,直到完成指定的 epoch 数量。例如,如果您设置了训练的总 epoch 数量为 10,则在训练开始时,该值为 1,当模型完成了对整个数据集的一次完整训练后,即 epoch 1 结束,该值增加为 2,以此类推,直到训练完成所有指定的 epoch 数量。例如,如果训练数据集有1000个样本,每次训练时从中随机选择一个batch进行训练,那么当模型训练完成了1000次batch,也就是一个epoch。原创 2024-03-03 12:21:46 · 1298 阅读 · 0 评论 -
神经网络的三层
隐藏层(Hidden Layer):隐藏层位于输入层和输出层之间,负责对输入数据进行非线性变换和特征提取。隐藏层的节点数和层数是根据网络结构和任务需求来确定的。输出层(Output Layer):输出层接收来自隐藏层的信息,并生成最终的输出结果。输出层的节点数通常与任务的输出维度相匹配,例如分类任务中,每个节点对应一个类别的概率值;输入层负责接收数据,隐藏层进行特征提取和非线性变换,输出层生成最终的预测结果。输入层(Input Layer):输入层接收原始数据,并将其传递给神经网络的第一层隐藏层。原创 2024-03-03 12:26:15 · 1188 阅读 · 0 评论 -
损失值(Loss Value)
具体地说,对于不同的任务和数据集,合适的损失值阈值会有所不同。在某些情况下,较低的损失值可能表明模型过度拟合了训练数据,导致在未见过的数据上泛化能力较差。因此,评价损失值是否“好”取决于具体的任务和数据集,需要结合模型的性能表现、验证集或测试集上的指标以及实际应用场景进行综合考量。:表示模型的预测结果与真实标签之间的差异较大,即模型在训练数据上的拟合程度较差。:表示模型的预测结果与真实标签之间的差异较小,即模型在训练数据上的拟合程度较好。低损失值通常意味着模型的性能较好,能够较准确地预测目标变量。原创 2024-03-03 12:25:03 · 1277 阅读 · 0 评论 -
语义分割任务在特征级别VS图像级别进行操作
综上所述,特征级别和图像级别的语义分割方法各有优缺点,选择哪种方法取决于具体的任务要求、计算资源和效率需求等因素。在实际应用中,通常会根据具体情况来选择合适的方法。在深度学习中,语义分割任务可以在特征级别和图像级别进行操作。原创 2024-03-03 12:10:51 · 948 阅读 · 0 评论 -
深度学习中——特征级别和图像级别
在神经网络中,通过各种层次的卷积、池化等操作,原始的图像数据会被转换为更加抽象的特征表示,通常以张量的形式存在。在损失函数中,图像级别的操作通常涉及对整个图像的相似度或差异进行计算,比如计算预测图像与真实标签图像之间的差异。在深度学习中,图像级别的操作通常涉及整个图像的处理,比如分类、检测、分割等任务,或者是计算整个图像的损失值。在深度学习中,特征级别和图像级别通常用于描述损失函数或模型操作的不同层次。在损失函数中,特征级别的操作通常涉及对特征表示之间的相似度或差异进行计算。原创 2024-03-03 12:09:03 · 609 阅读 · 0 评论 -
epoch(周期)和iterations(迭代),数据集长度,batchsize之间的关联关系
iterations的数量通常是由epoch数量和batch size来确定的。例如,如果一个epoch有1000个训练样本,batch size是10,那么一个epoch就会有1000/10=100个iterations。例如,如果训练数据集有1000个样本,每次训练时从中随机选择一个batch进行训练,那么当模型训练完成了1000次batch,也就是一个epoch。通常情况下,数据集长度与一个epoch中的迭代次数相关联,但不是严格相等的,因为在每个epoch末尾,可能会有一些样本未被使用。原创 2024-02-29 21:10:52 · 682 阅读 · 0 评论 -
深度学习中的图像处理(基本介绍+示例代码)
深度学习中的图像处理(基本介绍+示例代码)原创 2023-11-21 16:25:40 · 4077 阅读 · 1 评论 -
transfomer模型——简介,代码实现,重要模块解读,源码,官方
transfomer模型——简介,代码实现,重要模块解读,源码,官方原创 2023-11-12 20:56:37 · 3128 阅读 · 0 评论 -
监督学习VS无监督学习
监督学习和无监督学习,在机器学习与深度学习领域中经常提到,为了防止混淆,也为了加强理解,下边主要是一些概念和一个实例。原创 2022-03-23 16:34:24 · 2502 阅读 · 0 评论 -
深度学习-花书-序列建模:循环和递归网络
深度学习-花书-序列建模:循环和递归网络原创 2022-03-23 16:08:33 · 1711 阅读 · 0 评论 -
用于时间序列建模的无监督特征学习和深度学习综述-翻译学习及总结
用于时间序列建模的无监督特征学习和深度学习综述-翻译学习及总结原创 2022-03-09 16:31:02 · 2079 阅读 · 0 评论 -
深度学习入门实践学习——手写数字识别(百度飞桨平台)——下篇
一、上篇链接请查看本人深度学习专栏。二、下篇主要内容目录六、网络结构七、损失函数八、优化函数九、多GPU训练十、恢复训练三、网络结构1.概述:手写数字识别的输入是28 × 28的像素值,输出是0-9的数字标签,而线性回归模型无法捕捉二维图像数据中蕴含的复杂信息,如 图1 所示。无论是牛顿第二定律任务,还是房价预测任务,输入特征和输出预测值之间的关系均可以使用“直线”刻画(使用线性方程来表达)。但手写数字识别任务的输入像素和输出数字标签之间的关系显然不是线性的,甚至这个关系复杂到我们靠人脑原创 2022-01-13 21:45:46 · 1176 阅读 · 0 评论 -
深度学习入门实践学习——手写数字识别(百度飞桨平台)——上篇
一、项目平台百度飞桨二、项目框架1.数据处理;2.模型设计:网络结构,损失函数;3.训练配置:优化器,资源配置;4.训练过程;5.保存加载。三、手写数字识别任务1.构建神经网络流程;手写数字识别是一个典型的图像分类问题;MNIST数据集;2.构建神经网络设计思路:(1)明确任务输入输出:任务输入:手写数字图片,每张照片对应的28*28像素矩阵。任务输出:经过大小归一化和居中处理,输出对应的0-9数字标签。(2)模型构建的代码结构:数据处理:模型设计:训练配置:训练过程原创 2022-01-13 17:09:26 · 2552 阅读 · 0 评论