![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
小四姑娘
这个作者很懒,什么都没留下…
展开
-
深度总结4--BN算法原理
1.什么是BN 2.为什么BN算法可以解决梯度消失与梯度爆炸的问题 3.Batch Normalization和Group Normalization的比较 4.Batch Normalization在什么时候用比较合适? 一、什么是BN? Batch Normalization是2015年一篇论文中提出的数据归一化方法,往往用在深度神经网络中激活层之前。其作用可以加快模型训练时的收敛速度,使得模...原创 2020-04-07 10:45:07 · 1261 阅读 · 0 评论 -
深度学习总结3
序言:上一讲中我们谈到了Batch_size的选取以及其大小对模型效果的影响,那么在这一讲中,我们来总结一下归一化。 1.为什么要归一化 2.归一化的优点 3.归一化有哪些类型 4.局部响应归一化作用 一、为什么要归一化 1.避免神经元饱和。就是当神经元的激活在接近 0 或者 1 时会饱和,在这些区域,梯度几乎为 0,这样,在反向传播过程中,局部梯度就会接近 0,这会有效地“杀死”梯度。 2.保证...原创 2020-04-04 15:18:53 · 142 阅读 · 0 评论 -
深度学习总结2
序言:上一节中我们重点总结了激活函数,那么这一次我们着重讲一下Bacth_size。每天总结一点,每天进步一点,厚积薄发,总是可以滴水穿石的。 1.为什么需要Batch_size? 2.Batch_size值的选择 3.在合理的范围内,增大Batch_size有何好处 4.盲目增大Batch_size有何坏处 一、为什么需要Batch_size? 在这里我们需要明白batch_size,epoch...原创 2020-04-03 10:12:08 · 324 阅读 · 0 评论 -
深度学习总结1
序言:当我们面临一个全新的知识的时候,最好学习的办法就是先去了解它的一个大概框架,然后再深抠某个点,在学习的过程中,不断的总结,不断的思考,这样才会有提高,我想这也是为什么写这一系列博客的原因。秋招在即,很多知识点似是知道,却当面试官问起来一知半解。因此,该一系列博客对当前深度学习中比较基础的知识点进行总结,若有错误的地方,恳请大家指正。 深度学习和机器学习有什么不同 为什么深层神经网络难以训练...原创 2020-04-01 15:44:14 · 296 阅读 · 0 评论 -
Keras读取数据的几种方式
一、keras.preprocessing.image.load_img()读取单张图像 在这里需要将需要的包加载进来 import os from keras.preprocessing.image import load_img, img_to_array,image import matplotlib.pyplot as plt 详情可见原文链接:https://blog.csdn.net/...原创 2019-12-29 11:48:06 · 2017 阅读 · 0 评论 -
如何使用Keras fit和fit_generator(动手教程)
如何使用Keras fit和fit_generator(动手教程) https://blog.csdn.net/learning_tortosie/article/details/85243310转载 2019-12-28 11:39:05 · 117 阅读 · 0 评论 -
python skimage在图像处理中的用法
python skimage在图像处理中的用法:https://blog.csdn.net/mieleizhi0522/article/details/82113337转载 2019-12-26 22:27:09 · 127 阅读 · 0 评论 -
深度学习中的Normalization模型
** 深度学习中的Normalization模型 一. 从Mini-Batch SGD说起 二. Normalization到底是在做什么 三. Batch Normalization如何做 3.1 前向神经网络中的BN 3.2 CNN网络中的BN 3.3 Batch Norm的四大罪状 四. Layer Normalization、Instance Normalization及Group Nor...转载 2019-12-15 13:12:51 · 216 阅读 · 0 评论