机器学习
文章平均质量分 95
「已注销」
这个作者很懒,什么都没留下…
展开
-
卷积层和池化层的实现(使用 im2col )
卷积为什么卷积神经网络的能力更强?以 mnist 数据集为例,在普通的神经网络中,输入的数据是长度为 784784784 的像素。但实际上图像本身 28×2828 \times 2828×28 的的二维结构已经被破坏了,每个像素与之上下更多像素之间的位置关系都消失了。神经网络所看见的世界是由一维向量构成的,自然无法与现实形成更好的拟合。神经网络中的卷积是通过一个个滤波器对原始图像提取特征来实现的。不妨以二维单通道的图像数据为例,看看卷积的作用方式。(左侧为原始图像数据,中间为滤波器,右侧为特征图像)原创 2021-10-05 01:05:20 · 685 阅读 · 0 评论 -
numpy反向神经网络学习mnist
用numpy实现最简单的前馈神经网络——反向网络建立篇在前一篇文章中,已经初略的建立了前向神经网络,但是前向神经网络大量的前馈计算使其只有较低的速度,因此我们来建立反向神经网络。本篇主要是公式文章目录用`numpy`实现最简单的前馈神经网络——反向网络建立篇链式法则利用节点值偏导数求权重偏导数和偏置偏导数利用节点值偏导数求权重偏导数和偏置偏导数利用后一层节点偏导数求前一层节点值偏导数最终计算过程链式法则在学习偏导数的反向传递之前,需要有对链式法则有一定的了解provide that&n原创 2021-09-20 11:29:57 · 175 阅读 · 0 评论 -
numpy简单神经网络学习mnist
用numpy实现最简单的前馈神经网络——正向网络建立篇根据上一篇文章,来构建神经网络吧明确输入和输出选择合适的各种函数用矩阵和激活函数建立起从输入到输出的拟合函数用正向传播或反向传播获得损失函数的偏导数(注意对一定的数据集来说自变量为W\bold{W}W,A\bold{A}A固定)用梯度下降法努力使损失函数最小mnist分析(输入分析)下载在这里下载mnist数据集关于mnist的详细说明在其他人的文章里有说明images前16个字节包含了数据的说明,之后的所有字节以784784原创 2021-09-08 20:48:56 · 431 阅读 · 1 评论 -
numpy建立简单前馈神经网络
用numpy实现最简单的前馈神经网络——神经网络架构篇基础知识梯度(高等数学)、矩阵运算(线性代数)、numpy(ndarray)、python基础语法目录神经网络架构神经网络建立先用比较简单的正向传播建立好框架,再用反向传播改变算法实例:学习mnist手写数字数据集神经网络架构矩阵拟合梯度矩阵运算我们可以把矩阵看作一个特殊的函数,它的作用是将长度为n的向量(如下图A\bold{A}A)转化为长度为m的向量(如下图Z\bold{Z}Z)。将输入看作原创 2021-09-07 23:06:19 · 890 阅读 · 0 评论