cs231n学习笔记——四.Introduction to Neural Networks 神经网络

4.1 BP,Back Propagation 反向传播

嘛,照例跳过复习,开篇承接上节课,我们需要用解析梯度寻找权重矩阵的最优解,同时需要数值梯度验证,为了保证我们的解析式没算错,新的TA小姐姐给了一种叫计算图的方法
在这里插入图片描述
将计算过程拆解成计算图是为了之后的反向传播做准备的,举例说明,通过前向计算获得中间值和结果,再根据根据链式法则,反向调整权重参数

链式法则:是微积分中的求导法则,用于求一个复合函数的导数,是在微积分的求导运算中一种常用的方法。复合函数的导数将是构成复合这有限个函数在相应点的 导数的乘积,就像锁链一样一环套一环,故称链式法则。——百度百科

在这里插入图片描述
然后以一个网络节点的形式展示的话,就是这样
在这里插入图片描述
然后又举了个例子,因为太长了,就把sigmoid函数部分的贴一下吧,这东西作为最常用的几种激活函数,还是第一次给拆成这样看反传
在这里插入图片描述
嘛刚才这些都是对于一维标量而言,但是图像的输入往往是多维数据,所以就要引入雅可比矩阵

雅克比矩阵:在向量微积分中,雅可比矩阵是一阶偏导数以一定方式排列成的矩阵,其行列式称为雅可比行列式。雅可比矩阵的重要性在于它体现了一个可微方程与给出点的最优线性逼近。因此,雅可比矩阵类似于多元函数的导数。——百度百科

可以理解为一个多元函数的导数,当然因为多元所以肯定不是一个数,是矩阵形式
在这里插入图片描述
拿一个L2范式函数作为例子
在这里插入图片描述
上一步算到最终值0.116,然后BP计算回去,最终的输出梯度是1,那么回退一个节点,右下角是求导。下一步则再回退一个节点
在这里插入图片描述
两次回退就算完了,还好写代码不用手算2333,调API就好
在这里插入图片描述
然后用caffee的sigmoid代码举例子
在这里插入图片描述
又到了喜闻乐见的总结部分,主要是对BP做了个总结
在这里插入图片描述

4.2 Neural Networks 神经网络

嘛两层神经网络相当于两层函数的堆叠,深层网络就是复杂的嵌套函数,这么一讲神经网络还真是没啥新意呢
在这里插入图片描述
然后给了个20行代码训练两层神经网络
在这里插入图片描述
然后讲了讲神经网络为啥叫神经网络,它的与生物学特征的相似性,生物神经元突触的信号传递就和神经网络中的激活函数相似
在这里插入图片描述
所以还是脑子牛皮啊,当然我脑子不行
在这里插入图片描述
然后给出一个常见的多层网络连接结构示意图
在这里插入图片描述
给出一个神经网络节点的代码示例
在这里插入图片描述
总结~下课!
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值