![](https://img-blog.csdnimg.cn/20190927151124774.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
【深度学习笔记】
文章平均质量分 73
【深度学习笔记】
MengYa_DreamZ
努力经营当下,直至未来明朗!(欢迎交流xy:半块巧克力哇,回复较快)
展开
-
How to choose optimizer ?训练时,如何选择优化器?
How to choose optimizer ?训练时,如何选择优化器?1 优化器Optimizer2 优化器调用及相关参数3 优化方法3.1 SGD算法——随机梯度下降方法3.2 ASGD算法——平均随机梯度下降算法3.3 Adagrad算法3.4 Adadelta算法——自适应学习率调整3.5 RMSprop算法3.6 Adam算法——自适应矩估计3.7 Adamax算法——Adam的无穷范数变种3.8 SparseAdam算法3.9 L-BFGS算法原创 2022-03-14 09:15:46 · 3150 阅读 · 0 评论 -
How to choose loss ?训练时,如何选择损失函数?
how to choose loss ?训练时,如何选择损失?原创 2022-03-13 11:22:35 · 3188 阅读 · 0 评论 -
Python:一张图像在网络中会遇到什么?
Python:一张图像在网络中会遇到什么?imread、resize、normalization、scale、numpy、torch原创 2022-03-07 12:02:23 · 1196 阅读 · 0 评论 -
【深度学习笔记】-代码解读6-迁移学习
转载「深度学习一遍过」必修6:利用迁移学习快速提升模型性能_荣仔的博客-CSDN博客迁移学习的概念神经网络需要用数据来训练,它从数据中获得信息,进而把它们转换成相应的权重。 这些权重能够被提取出来,迁移到其他的神经网络中, 即“迁移”了这些学来的特征,就不需要从零开始训练一个神经网络了 。迁移学习就像站在巨人的肩膀上,借助已有的高性能模型训练自己的算法,它可以为你节省大量功夫,使得自己模型性能快速飙升。案例学习1 加载ResNet18pretrain_model = ..转载 2021-11-06 17:05:59 · 318 阅读 · 0 评论 -
【深度学习笔记】-代码解读5 -pytorch自带分类模型
【深度学习笔记】-代码解读5 -pytorch自带分类模型AlexnetVGG——vgg11 vgg13 vgg16 vgg19ResNet——resnet18 resnet34 resnet50 resnet101 resnet152Inception——inception_v3转载 2021-11-06 15:34:11 · 1569 阅读 · 0 评论 -
【深度学习笔记】-代码解读4-图像数据增强
【深度学习笔记】-代码解读4-图像数据增强 cv2.resize 尺寸放大缩小cv2.warpAffine 旋转(任意角度,如45°,90°,180°,270°)cv2.flip 翻转(水平翻转,垂直翻转)明亮度改变(变亮,变暗)cv2.warpAffine 像素平移(往一个方向平移像素,空出部分自动填补黑色)添加噪声(椒盐噪声,高斯噪声)转载 2021-11-06 14:28:42 · 379 阅读 · 0 评论 -
【深度学习笔记】-代码解读3-数据读取-Dataloader
转载「深度学习一遍过」必修3:Pytorch数据读取——使用Dataloader读取Dataset_荣仔的博客-CSDN博客1. CreateDataset - 生成训练集和测试集生成训练集和测试集,保存在 txt 文件中。 相当于模型的输入。 数据加载器 dataload 的时候从里面读它的数据。思路导入库--比例分配数据集--数据保存--对应文件夹--打乱训练数据集--写入数据集.txt# 导入系统库import os # 随机数生成器(打乱数据用的)impor...转载 2021-11-06 14:09:48 · 1554 阅读 · 0 评论 -
【深度学习笔记】-代码解读2-模型
深度学习 测试代码、训练代码 详细解读,一文看懂深度学习方面的python代码转载 2021-11-06 10:15:16 · 580 阅读 · 0 评论 -
【深度学习笔记】-代码解读1
代码借鉴-很好的入门资源推荐(11条消息) 「深度学习一遍过」必修1:Windows10 下 Pytorch 的安装与环境配置_荣仔的博客-CSDN博客在原博主的代码上,进一步进行注释~from __future__ import print_functionimport argparseimport torchimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optim原创 2021-11-05 21:27:02 · 856 阅读 · 0 评论 -
单目深度估计技术进展综述
深度估计概述 基于多幅/单幅图像的深度估计方法 监督学习和无监督学习 深度估计相关数据集 基于深度学习的单目深度估计单任务1) 绝对深度(1)有监督回归模型(2)有监督分类模型(3)无监督模型2)相对深度多任务Conclusion转载 2021-09-01 16:28:51 · 6379 阅读 · 0 评论 -
深度学习基础笔记——图像数据常用的增强方法
图像增强Color JitteringPCA JitteringRandom ScaleRandom CropHorizontal/Vertical FlipShiftRotation/ReflectionNoiseLabel Shuffle转载 2021-08-16 11:48:55 · 794 阅读 · 0 评论 -
深度学习基础笔记——Dropout系列问题
1 正则化意义2 正则化——预防过拟合优势3 dropout正则化概念4 dropout率的选择5 dropout的缺点转载 2021-08-16 11:40:28 · 473 阅读 · 0 评论 -
深度学习基础笔记——学习率
learning rate概念理解1 学习率2 学习率衰减常用参数3 分段常数衰减4 指数衰减5 自然数衰减6 多项式衰减7 余弦衰减转载 2021-08-16 11:17:02 · 1655 阅读 · 0 评论 -
深度学习基础笔记——归一化
Batch Normalization BN 1 归一化概念2 归一化作用 归一化为什么能提高求解最优解速度3D 图解未归一化 局部响应归一化作用及理解3 归一化类型 线性归一化 标准差标准化非线性归一化4 批归一化(Batch Normalization,BN)概念5 批归一化算法流程及优点6 批归一化和群组归一化7Weight Normalization和Batch Normalization比较【Batch Normalization使用场景】转载 2021-08-16 09:50:52 · 10683 阅读 · 0 评论 -
深度学习基础笔记——Batch_Size
1 Batch_Size概念2 Batch_Size作用3 Batch_Size相关设置A 在合理范围内,增大Batch_Size好处B 盲目增大Batch_Size缺点C 调节Batch_Size对训练效果的影响转载 2021-08-15 20:59:47 · 792 阅读 · 0 评论 -
深度学习基础笔记——激活函数
1 激活函数的概念2 激活函数意义3 激活函数是非线性函数原因4 常见的激活函数及导数A sigmoid 激活函数B tanh激活函数——双曲正切函数C Relu激活函数——优先选择D Leaky Relu激活函数(PReLU)E ELU激活函数5 激活函数的性质6 激活函数的选择7 Softmax函数A Softmax函数定义(以第 i 个节点输出为例)B Softmax函数求导8 交叉熵代价函数定义及其求导推导转载 2021-08-15 20:41:34 · 2611 阅读 · 0 评论 -
深度学习基础笔记——超参数
深度学习1 超参数概念2 超参数的最优值3 超参数搜索一般过程转载 2021-08-15 15:55:21 · 1026 阅读 · 0 评论 -
深度学习基础笔记——卷积神经网络概念及其计算方式
卷积神经网络(Convolutional Neural Network,CNN)卷积 卷积核 神经网络公式 卷积运算方式 补0(zero padding)池化(Pooling)激活函数RelU (Rectified Linear Units) 全连接层(Fully connected layers)标准卷积计算举例1 x 1 卷积计算举例 全连接层计算举例常见的几种卷积神经网络介绍 LeNet AlexNet VGGNet ResNet原创 2021-08-15 10:01:40 · 14326 阅读 · 2 评论 -
深度学习基础笔记——前向传播与反向传播
FP BP概念深度学习基础 前向传播与反向传播及案例、计算方式forward propagation backward propagation转载 2021-08-15 09:24:29 · 2264 阅读 · 0 评论 -
深度学习基础笔记——基本概念
神经网络 深度学习概念 感知机 梯度消失和梯度爆炸及解决方法 重点梯度部分理解 反向传播转载 2021-08-14 18:13:21 · 210 阅读 · 0 评论