![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 84
xiao52x
这个作者很懒,什么都没留下…
展开
-
numpy的一些函数运用
文章目录1.argmax()函数2.**numpy.random.choice**()3.shape[0]而对于矩阵来说:4.ndim5、axis=0一维数组二维数组三维数组6、np.reshape(-1)、np.reshape(-1, 1)、np.reshape(1, -1)详解1.argmax()函数语法格式:numpy.argmax(a,axis)作用:返回axis轴方向最大值的索引a :为所需处理的矩阵axis :为处理的轴向,axis=1为横轴方向,方向从左到右;axis=0为纵轴方向原创 2021-11-29 20:34:22 · 2448 阅读 · 0 评论 -
深度学习:基于python:第一章到第五章,函数总和运用
误差反向传播法的实现神经网络学习的全貌图对应误差反向传播法的神经网络的实现使用的一个类:计算图层,第五章:这里神经网络层:y=xw+bclass Affine: def __init__(self, W, b): self.W =W self.b = b self.x = None self.original_x_shape = None # 权重和偏置参数的导数 s原创 2021-11-29 20:31:54 · 251 阅读 · 0 评论 -
深度学习:基于python:第二章
深度学习感知机2.1感知机是什么2.2简单逻辑电路2.2.1 与门、与非、或2.3感知机的实现2.4 感知机的局限性2.4.1 异或门2.4.2 线性和非线性2.5 多层感知机2.7 小结第三章 神经网络3.1 从感知机到神经网络3.1.1 神经网络的例子3.1.2 复习感知机3.1.3 激活函数登场3.2 激活函数感知机2.1感知机是什么[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ghbppFo3-1637995792269)(图片/1.png)]2.2简单逻辑电原创 2021-11-27 14:52:01 · 301 阅读 · 0 评论 -
深度学习:基于python:第三章
文章目录第三章 神经网络3.1 从感知机到神经网络3.1.1 神经网络的例子3.1.2 复习感知机3.1.3 激活函数登场3.2 激活函数3.2.1 sigmoid函数3.2.2 阶跃函数的实现3.2.3 阶跃函数的图形3.2.4 sigmoid函数的实现3.2.5 sigmoid函数和阶跃函数的比较3.2.6 非线性函数3.2.7 ReLU函数3.3 多维数组的运算3.3.1 多维数组3.3.2 矩阵乘法3.3.3 神经网络的内积3.4 3层神经网络的实现3.4.1 符号确认3.4.2 各层间信号传原创 2021-11-27 18:19:29 · 723 阅读 · 0 评论 -
深度学习:基于python:第四章 神经网络的学习
文章目录第4章 神经网络的学习4.1 从数据中学习4.1.1 数据驱动4.1.2 训练数据和测试数据4.2 损失函数4.2.1 均方误差4.2.2 交叉熵误差4.2.3 mini-batch学习4.2.4 mini-batch版交叉熵误差的实现第4章 神经网络的学习本章的主题是神经网络的学习。这里所说的“学习”是指从训练数据中 自动获取最优权重参数的过程。本章中,为了使神经网络能进行学习,将导 入损失函数这一指标。而学习的目的就是以该损失函数为基准,找出能使它 的值达到最小的权重参数。为了找出尽可能小的原创 2021-11-27 19:46:03 · 708 阅读 · 0 评论 -
深度学习:基于python 第五章:误差反向传播法
深度学习:基于python第5章 误差反向传播法5.1 计算图5.1.1 用计算图求解5.1.2 局部计算5.1.3 为何用计算图解题5.2 链式法则5.2.1 计算图的反向传播5.2.2 什么是链式法则5.2.3 链式法则和计算图*5.3 反向传播5.3.1 加法节点的反向传播5.3.2 乘法节点的反向传播5.3.3 苹果的例子*5.4 简单层的实现5.4.1 乘法层的实现5.4.2 加法层的实现第5章 误差反向传播法数值微 分虽然简单,也容易实现,但缺点是计算上比较费时间。本章我们将学习一 个能够高原创 2021-11-29 12:37:36 · 1066 阅读 · 0 评论 -
深度学习:基于python第6章 与学习相关的技巧
文章目录第6章 与学习相关的技巧6.1 参数的更新6.1.2 SGD6.1.3 SGD的缺点6.1.4 Momentum6.1.5 AdaGrad6.1.6 Adam6.1.7 使用哪种更新方法呢学习了4种更新参数的方法6.1.8 基于MNIST数据集的更新方法的比较第6章 与学习相关的技巧本章将介绍神经网络的学习中的一些重要观点,主题涉及寻找最优权重参数的最优化方法、权重参数的初始值、超参数的设定方法等。为了 应对过拟合,本章还将介绍权值衰减、Dropout等正则化方法,并进行实现。6.1 参数的原创 2021-11-30 19:58:44 · 1171 阅读 · 0 评论 -
深度学习:基于python:第五章,小结(2)
小结第五章 误差反向传播5.1 计算图5.2 链式法则5.3 反向传播5.4 简单层的实现5.4.1 乘法层的实现类函数5.4.2 加法层的实现类函数5.5 激活函数层的实现5.5.1 ReLU层类函数5.5.2 Sigmoid层**用Python实现Sigmoid层**5.6 Affine/Softmax层的实现5.6.1 Affine层5.6.2 批版本的Affine层类函数(这里不是官方的)类函数(考虑到4维)5.6.3 Softmax-with-Loss 层第五章 误差反向传播数值微 分虽然简单原创 2021-11-29 20:29:11 · 373 阅读 · 0 评论 -
深度学习:基于python:第7章 卷积神经网络
第7章 卷积神经网络第7章 卷积神经网络7.1 整体结构7.2 卷积层7.2.1 全连接层存在的问题7.2.2 卷积运算7.2.3 填充7.2.4 步幅7.2.5 3维数据的卷积运算7.2.6 结合方块思考7.2.7 批处理7.3 池化层7.4 卷积层和池化层的实现7.4.1 4维数组7.4.2 基于 im2col的展开第7章 卷积神经网络本章的主题是卷积神经网络(Convolutional Neural Network,CNN)。 CNN被用于图像识别、语音识别等各种场合,在图像识别的比赛中,基于 深原创 2021-11-30 21:27:14 · 4189 阅读 · 2 评论 -
深度学习:基于python:第8章 深度学习
文章目录第8章 深度学习8.1 加深网络8.1.1 向更深的网络出发8.1.2 进一步提高识别精度8.1.3 加深层的动机8.2 深度学习的小历史8.2.1 ImageNet8.2.2 VGG8.2.3 GoogLeNet8.2.4 ResNet8.3 深度学习的高速化8.4 深度学习的应用案例8.5 深度学习的未来8.6 小结第8章 深度学习深度学习是加深了层的深度神经网络。基于之前介绍的网络,只需通过 叠加层,就可以创建深度网络。8.1 加深网络8.1.1 向更深的网络出发如图8-1所示,插入原创 2021-11-30 21:49:38 · 220 阅读 · 0 评论