深度学习
放不完的风筝
这个作者很懒,什么都没留下…
展开
-
深度学习笔记(九)卷积神经网络算法
卷积神经网络卷积神经网络介绍CNN卷积层一个概念local receptive field:共享权重和偏向:feature map(特征映射)的概念池化层(pooling layer)总结卷积神经网络卷积神经网络介绍CNN我们传统的神经网络相邻层使用完全连接的方式,也就是说神经网络中每个神经元都与相邻层的所有神经元进行连接。 传统...原创 2018-05-24 16:23:59 · 5997 阅读 · 0 评论 -
深度学习笔记(八):dropout
dropout介绍为什么dropout能减少overfittingdropout介绍 减少过拟合的方法除了正则化,扩大训练集规模外,还有dropout,下面将详细介绍dropout和正则化不同,dropout不是改变Cost函数,而是直接改变神经网络的结构。 举个列子,假如我们神经网络的结构如下: dropout方法,在原来的神经网络基础上,...原创 2018-05-26 19:52:49 · 495 阅读 · 1 评论 -
深度学习笔记(七):正则化
正则化L2正则化定义及公式介绍实验L1正则化L1和L2正则化的区别总结正则化在上次笔记中,提到了过拟合,如何解决过拟合呢,其中正则化就是常见的减少过拟合的方法。其中常见的两种正则化方法分别是L2和L1正则化。L2正则化定义及公式介绍L2正则化又叫做weight decay(权重下降),顾名思义,让神经网络尽可能学习比较小的权重。拿...原创 2018-05-26 19:29:53 · 2705 阅读 · 0 评论 -
deepin15.5搭建tensorflow深度学习环境
deepin15.5搭建深度学习环境,CUDA8.0安装NVIDIA驱动安装CUDA安装深度学习加速器 cudnn安装Tensorflow-gpu版参考deepin15.5搭建深度学习环境,CUDA8.0 不需要Ubuntu那么折腾的方法,所有的都是一键安装,不需要下载安装包,用Ubuntu方案折腾好久没成功安装NVIDIA驱动在深度商店直接...原创 2018-05-15 10:16:09 · 3431 阅读 · 0 评论 -
深度学习笔记(六):过拟合是什么意思
overfitting过拟合过拟合:表示神经网络模型在训练集上的表现很好,但是泛化能力比较差,在测试集上表现不好 overfitting的例子:横坐标为x,纵坐标为y,每个黑点为训练集的训练实例,红色线条是我们训练得出的方程,可以看出 训练的模型能够完美的拟合训练集的实例。而黑色的虚线方程也可以比较好的拟合我们的训练实例。 黑色方程好还是红色方程好?红色线...原创 2018-05-19 17:24:34 · 31266 阅读 · 3 评论 -
深度学习笔记(五):SoftMax激活函数介绍
SoftMax激活函数介绍上次笔记介绍了一个新的Cost函数,改进了神经网络,这个笔记将介绍一张面向多输出的SoftMax激活函数SoftMax定义了神经网络新型的输出方法,他不改变神经网络的加权输入(即中间量Z):zLj=∑kwLjkaL−1k+bLjzjL=∑kwjkLakL−1+bjLz^L_j = \sum_{k} w^L_{jk} a^{L-1}_k + b^L_j回顾下...原创 2018-05-19 17:21:30 · 18536 阅读 · 0 评论 -
深度学习笔记(三):backpropagation反向传播算法python代码讲解
backpropation算法python代码实现讲解批量梯度更新backpropagation算法backpropagation算法步骤backpropation算法python代码实现讲解 具体神经网络参见第一个笔记批量梯度更新class Network(object): ... # 参数,mini_batch:要...原创 2018-05-13 15:28:24 · 3619 阅读 · 0 评论 -
深度学习笔记(四):Cross-entropy损失函数
改进的Cost函数Cross-entropy使神经网络学习更快神经网络是如何学习的神经网络学习过程(Cost的变化情况)为什么神经网络会出现一开始学习很慢后来学习变快的情况呢介绍cross-entropy 损失函数(cost function)演示cross-entropy损失函数的学习情况总结:改进的Cost函数Cross-entropy使神经网络学习更快...原创 2018-05-17 22:49:35 · 27930 阅读 · 1 评论 -
深度学习笔记(二):backpropagation算法
backpropagation算法原理 Backpropagation核心解决的问题: ∂C/∂w 和 ∂C/∂b 的计算, 针对cost函数C ω324:ω243:\omega_{24}^{3}:表示第从第(3-1)层的的第4个神经元到第3层的第2个神经元的权重weight > b23:b32:b_{3}^{2}:表示第2层的第3个神经元的偏向bais...原创 2018-05-10 21:46:15 · 755 阅读 · 0 评论 -
深度学习笔记(一):实现一个神经网络算法
实现一个手写数字识别的算法(使用神经网络算法)实现一个手写数字识别的算法(使用神经网络算法)MNIST数据集:实现一个手写数字识别程序MNIST数据集: 训练(train) 50,000 验证(validation) 10,000 测试(test) 10,000#神经网络class Netw...原创 2018-05-10 21:36:15 · 3293 阅读 · 0 评论 -
numpy.reshape参数-1解释
numpy.reshape 官方文档给出的解释 值得注意的是,reshape给出参数newreshape可以传-1,官方文档解释,传-1表示剩下来的自动根据矩阵的规模和剩余维度进行计算大意是说,数组新的shape属性应该要与原来的配套,如果等于-1的话,那么Numpy会根据剩下的维度计算出数组的另外一个shape属性值。举个例子:z = np.arr...原创 2018-05-31 20:07:44 · 869 阅读 · 0 评论