- 博客(8)
- 收藏
- 关注
原创 避免过拟合的正则化方法
避免过拟合的正则化方法Early StoppingDropoutℓ2\ell2ℓ2范数正则化(ℓ2\ell2ℓ2 Regularization)ℓ1\ell1ℓ1范数正则化(ℓ1\ell1ℓ1 Regularization)ℓ2\ell2ℓ2范数正则化与权重衰减数据增强旨在减少泛化误差。Early Stopping早停法早停法(Early Stopping)常用于确定合适的训练周期数(epoch)训练周期数是超参数过少的训练周期,欠拟合过多的训练周期,过拟合早停法步骤:划
2020-11-29 16:21:09 394
原创 超参数设定
超参数(hyperparameters)是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。在深度神经网络中,超参数的调整是一项必备技能。通过观察在训练过程中的监测指标如损失loss和准确率来判断当前模型处于什么样的训练状态,及时调整超参数以更科学地训练模型能够提高资源利用率深度学习主要超参数:网络模型(结构、层数、激活函数等)学习率批次大小(batch size)迭代次数(epoch,iteration)优化器...
2020-11-29 14:11:31 496
原创 参数初始化Weight Initialization
参数初始化Weight Initialization全零初始化:无法进行模型训练随机初始化:使用小的随机数(高斯分布,零均值,1e-2标准差)初始化小网络可以,对于深度网络有问题。网络输出数据分布的方差会随着神经元的个数而改变。Xavier初始化为保证前向传播和反向传播时每一层的方差一致。根据每层的输入个数和输出个数来决定参数随机初始化的分布范围。高斯分布的权重初始化为:高斯分布的随机数乘上2nin+nout\frac{\sqrt{2}}{\sqrt{n_{in}+n_{out}}}nin
2020-11-29 13:38:05 314
原创 数据预处理
数据预处理均值归一化(mean normalization)计算训练集图像像素的均值,之后在处理训练集、验证集和测试集图像时分别减去该均值。移去共同部分,凸显个体差异。对于每一张图片:减去平均图像(例如AlexNet)减去每个通道的平均值(例如VGGNet)经过变换后,均值变为0,方差变为1。变换流程...
2020-11-29 12:02:01 149
原创 数据增强Data Augmentation
数据增强Data Augmentation数据增强的目的图像变换示例图像数据增强方式总结数据增强的目的增大训练数据量能持续提升模型的性能获取更多数据 - 人工标注数据合成更多数据 - 数据增强对于图像数据,可通过图像变换来扩充数据量图像平移旋转缩放翻转裁剪添加图像噪声通过GAN(生成对抗网络)生成图像来扩充数据量。图像变换示例shear:裁剪scale:尺度变换rotate:旋转图像数据增强方式总结英文名中文名Random Hori
2020-11-29 11:50:49 511
原创 构建基于DeepStream的YOLOV3视频监控程式
本指南提供了使用DeepStream开发基于YOLOV3的USB智能分析程式。目标检测算法:YOLO V3取像硬件:USB高速相机运行平台:Jetson Nano
2020-11-27 13:48:03 2262 18
原创 常见激活函数及其Python代码实现
常见激活函数及其Python代码实现阶跃函数sigmoid函数relu函数阶跃函数 VS sigmoid函数softmax函数交叉熵函数阶跃函数f(x)={1x≥00x<0 f(x)=\left\{\begin{aligned}1 & & x\geq 0 \\0 & & x<0 \\\end{aligned}\right.f(x)={10x≥0x<0import numpy as npimport matplotlib.pylab
2020-11-26 10:50:32 1874
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人