深度学习
行仔ovo
这个作者很懒,什么都没留下…
展开
-
深度学习记录(11) - 实操:构建ResNet
待填坑原创 2021-03-06 17:10:40 · 111 阅读 · 0 评论 -
深度学习记录(10) - 实操:构建GoogleNet
待填坑原创 2021-03-06 17:09:47 · 102 阅读 · 0 评论 -
深度学习记录(9) - 实操:构建VGGNet
待填坑原创 2021-03-06 17:09:00 · 139 阅读 · 0 评论 -
深度学习记录(8) - 实操:构建AlexNet
待填坑原创 2021-03-06 17:07:53 · 75 阅读 · 0 评论 -
深度学习记录(7) - 卷积神经网络
待填坑原创 2021-03-06 17:06:33 · 113 阅读 · 0 评论 -
深度学习记录(6) - 实操:手写数字识别
待填坑原创 2021-03-06 17:04:41 · 178 阅读 · 0 评论 -
深度学习记录(5) - 深度学习正则化
文章目录0.1. L1、L2正则化2. DropOut3 提前终止(Early Stopping)4. BN层0.上图是 欠拟合、好的拟合、过拟合三种情况。在许多机器学习算法中都采用相关的策略来减小测试误差,这些策略统称为“正则化”,经常会遇到过拟合,所以需要使用不同形式的正则化策略。目前在深度学习中使用较多的策略有:参数范数惩罚,提前终止,DropOut等1. L1、L2正则化这两种方法,通过在损失函数中增加一个正则项,使得权重矩阵的值减小。因为,这两种方法假定具有更小权重矩阵的神经网络就是原创 2021-03-06 16:58:36 · 288 阅读 · 0 评论 -
深度学习记录(4) - 深度学习网络的优化方法
文章目录0. epoch,batch,和iteration1. 前向传播、反向传播与链式法则2. BP算法(反向传播算法)3. 优化算法:梯度下降(BGD,SGD,MBGD)4. 优化算法:带动量的梯度下降(Momentum)4.1 带动量的梯度下降指数加权平均带动量的梯度下降算法5. 优化算法:Adagrad6. 优化算法:RMSprop7. 优化算法:Adam8. 学习率退火8.1 分段常数衰减8.2 指数衰减8.3 1/t衰减0. epoch,batch,和iterationEpoch:使用训练原创 2021-03-06 15:59:22 · 863 阅读 · 0 评论 -
深度学习记录(3) - 网络构建方式与损失函数
文章目录1. 神经网络的构建方式1.1 Sequential构建方式1.2 利用function API构建1.3 通过Model的子类构建2. 损失函数2.1 分类任务中的损失函数多分类任务二分类任务2.2 回归任务中的损失函数MAE(L1 loss)损失MSE(L2 loss)损失smooth L1 损失1. 神经网络的构建方式jupyter botebook 中可以使用shift + tab查看函数参数提示。1.1 Sequential构建方式只能构建序列模型构建模型import原创 2021-03-06 11:33:09 · 776 阅读 · 0 评论 -
深度学习记录(2) - 激活函数与参数初始化
文章目录0. 神经元的工作方式1. 激活函数1.1 sigmoid1.2 tanh1.3 relu1.4 leakyrelu1.5 softmax1.6 其他激活函数1.7 如何选择激活函数隐藏层输出层2. 参数初始化2.1 随机初始化2.2 标准初始化2.3 Xavier(Glorot)初始化2.4 He初始化3. 神经网络的构建方式3.1 Sequential构建方式3.2 利用function API构建3.3 通过Model的子类构建4. 损失函数4.1 分类任务中的损失函数多分类任务二分类任务4.原创 2021-03-06 11:32:33 · 665 阅读 · 0 评论 -
深度学习记录(1) - 基础知识与tensorflow keras
文章目录0.tensorflow安装1. 张量(Tensor)是什么基本方法2. tensor转numpy3. tensor常用函数4. 变量5. tf.keras6. 有关深度学习6.1 导入tf.keras6.2 数据预处理6.3 模型构建6.4 模型训练与评估7. 回调函数8. 模型的保存和恢复0.tensorflow安装推荐使用anaconda配置环境。CPU版本pip install tensorflow==2.3.0 -i https://pypi.tuna.tsinghua.edu原创 2021-03-05 20:32:29 · 136 阅读 · 1 评论