![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
沧海Yi粟
这个作者很懒,什么都没留下…
展开
-
远程跑模型常用的ubuntu和git命令
远程跑模型常用的ubuntu和git命令原创 2022-04-29 18:27:59 · 1197 阅读 · 0 评论 -
nn.CrossEntropyLoss用于图像分割
nn.CrossEntropyLoss用于图像分割原创 2022-04-17 18:59:55 · 4286 阅读 · 2 评论 -
用pytorch实现LeNet-5(有注释)
用pytorch实现LeNet-5(有注释)首次运行时,请将data_loader(batch_size)函数中的两处torchvision.datasets.MNIST()中的参数download设为True以下载MINST数据集,数据集不是特别大,稍等一会儿就可下完。import torchimport torch.nn as nnfrom torch.autograd import Variableimport torch.utils.data as dataimport torchv原创 2021-09-26 14:37:55 · 2379 阅读 · 5 评论 -
经典的卷积神经网络(CNN)--- LeNet-5
经典的卷积神经网络(CNN)— LeNet-5此文是阅读论文《Gradient-Based Learning Applied to Document Recognition》后的总结,该论文提出了LeNet-5用于手写数字识别(图像分类),是CNN的开山之作,现在的AlexNet、ResNet等都是在其基础上发展而来的。原文篇幅较长,本文只总结了有关LeNet-5的相关知识。本文结构如下传统的机器学习算法在图像分类问题上的不足卷积神经网络的创新之处及作用LeNet-5的网络结构传统的机原创 2021-09-25 17:00:11 · 3217 阅读 · 1 评论 -
自适应的学习率
自适应的学习率方法:1.adagrad2.RMSProp原创 2021-09-06 21:27:58 · 248 阅读 · 0 评论 -
梯度消失(vanishing gradient)
梯度消失(vanishing gradient)梯度消失问题是由于在神经网络中使用sigmoid激活函数导致的,解决方法是更换激活函数,比如换为ReLU或maxout。原创 2021-09-06 21:22:57 · 518 阅读 · 0 评论 -
深度学习模型训练的结果及改进方法
标题深度学习模型训练的结果及改进方法模型在训练集上误差较大: 解决方法: 1. 选择新的激活函数 2. 使用自适应的学习率在训练集上表现很好,但在测试集上表现很差(过拟合): 解决方法: 1. 减少迭代次数 2. 正规化(Regularization) 3. 丢弃法(dropout)...原创 2021-09-06 21:12:23 · 2975 阅读 · 1 评论