神经网络
文章平均质量分 89
charlie_wang007
纯属个人学习笔记,如有误人子弟,并非本义,有错误请不吝赐教,【线性代数部分来自大神3Blue1Brown的视频,请自行去搜索观看学习,我仅是自己的笔记而已】
展开
-
反向传播笔记
神经网络算法的目标是通过训练一步一步的将参数调到最优,以无线逼近正确结果,调参的过程涉及到反向传播,即将本次神经元的输出结果与正确结果计算交叉熵,在通过反向传播,利用梯度下降发求得最优参数,先看链式传播法则的通俗理解:1.链式法则。假设一个场景,一辆汽车20万元,要收10%的购置税,如果要买2辆,则正向传播的过程可以画成:汽车单价20万,最终需要支付44万,我现在想知道汽车单价每波动1万,对最终支付价格的影响是多少。参看下图:我们从右向左依次求导,得到的值分别为①44/44=1②44/40=1原创 2021-04-27 17:02:48 · 166 阅读 · 0 评论 -
多层感知机理解
多层感知器(Muti-Layer Percetron)和卷积网络(Convolutional Neural Network)。这两种网络都属于前馈型网络(Feedforward network),其中多层感知器(MLP)是最简单也是最常见的一种神经网络结构,它是所有其他神经网络结构的基础,好在我对神经网络的了解是从卷积神经网络开始的,对基本的原理和模型已经有了了解,所以学习起来相对容易,先看多层感知机的模型:1.网络的连接及输出:1.最左边就是我们的输入层了,算是网络的第0层,通常是一个向量x:原创 2021-04-26 16:28:04 · 1455 阅读 · 3 评论 -
LeNet神经网络总结
花了一个礼拜时间从零查资料学习了LeNet神经网络的基本架构,看各位大神的blog,都写的很好,以我一个入门的视角,怎样能更好的理解,整理出来供以后消化再深入先看模型图:上图包含输入层总共8层网络,分别为:输入层(INPUT)、卷积层(Convolutions,C1)、池化层(Subsampling,S2)、卷积层(C3)、池化层(Subsampling,S4)、卷积层(C5)、全连接层(F6)、输出层(径向基层)输入层是包含一张手写体是32x32像素的图片,(如果包含rgb信息,则深度为3)下原创 2021-04-13 20:17:45 · 823 阅读 · 0 评论 -
三种激活函数的理解及plt实现绘图
什么是激活函数?首先了解一下神经网络的基本模型如上图所示,神经网络中的每个神经元节点接受上一层神经元的输出值作为本神经元的输入值,并将输入值传递给下一层,输入层神经元节点会将输入属性值直接传递给下一层(隐层或输出层)。在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数。简单来说,激活函数,并不是去激活什么,而是指如何把“激活的神经元的特征”通过函数把特征保留并映射出来,即负责将神经元的输入映射到输出端。为什么需要激活函数?首先明确一点,激活函数是用来加入非原创 2021-04-06 16:07:42 · 2182 阅读 · 0 评论 -
神经网络
本文来源:新浪微博@李永乐老师https://weibo.com/ttarticle/p/show?id=2309404621504527597707#_0上一回为大家介绍了人工智能的基本概念和算法,讲到了梯度下降法、神经网络、机器学习的基本概念,还没看过的小伙伴可以点击这里。人工智能有一个重要领域就是图像识别。比如:有许多软件可以通过拍照的方法识别出不同的物体。我用它去拍摄我家的狗,发现它不仅能识别出这是狗,甚至还能够识别出狗的类型。大家想知道图像识别究竟是如何做到的吗?今天我们就来聊聊图像识转载 2021-04-02 16:51:43 · 343 阅读 · 0 评论