【深度学习】含神经网络、CNN、RNN推理


入坑,加油!!

1.神经网络

1.1 什么是神经网络

在这里插入图片描述

2神经网络前提

2.1二分分类

二分分类【binary classification】

  • eg:假如你有一张图片作为输入,比如这只猫,如果识别这张图片为猫,则输出标签1作为结果;如果识别出不是猫,那么输出标签0作为结果

后续符号说明
在这里插入图片描述
y^ 当两个变量间存在线性相关关系时,常常希望建立二者间的定量关系表达式,这便是两个变量间的一元线性回归方程。假定x是自变量,y是随机变量,y对x的一元线性回归方程的表达式为:y ^ =a+bx 。因此字母头上加个“^”表示回归值,表示真实值的一种预测,实际的观测值与回归值是存在偏差的

2.2logistic回归

logistic回归【Logistic regression】是一个用于二分分类【binary classification】的算法
在这里插入图片描述

2.3logistic回归损失函数

为了训练逻辑回归模型的参数 w 和参数 b ,我们需要一个代价函数【亦称成本函数】,通过训练代价函数来得到参数 w 和参数 b

  • Loss (error) function【损失函数 / 误差函数】用于衡量算法的运行情况
    eg:损失函数L来衡量你的预测输出值y^和y的实际值有多接近
    在这里插入图片描述
    注意: Loss (error) function【损失函数 / 误差函数】是在单个训练样本中定义的,它衡量了在单个训练样本中的表现
  • Cost function【成本函数】,用于衡量在全体训练样本上的表现
    在这里插入图片描述

2.4 梯度下降法

梯度下降法【Gradient Descent】 来训练或学习训练集上的参数w和b
在这里插入图片描述

2.5 logistic回归中的梯度下降法

在这里插入图片描述

2.6 m个样本的梯度下降

在这里插入图片描述

2.7 向量化【vectorization】

在这里插入图片描述

2.8 向量化logistic回归

激活函数

激励函数(可微分)使线性结果变成非线性结果
二分类问题,如果不使用激活函数,例如使用简单的逻辑回归,只能作简单的线性划分,如下图所示

如果使用激活函数,则可以实现非线性划分
relu函数是常见的激活函数中的一种,表达形式如下。

Relu函数的图像和求导后的图像如下:
在这里插入图片描述

从表达式和图像可以明显地看出:Relu其实就是个取最大值的函数。
ReLU函数其实是分段线性函数,把所有的负值都变为0,而正值不变,这种操作被成为单侧抑制。(也就是说:在输入是负值的情况下,它会输出0,那么神经元就不会被激活。这意味着同一时间只有部分神经元会被激活,从而使得网络很稀疏,进而对计算来说是非常有效率的。)正因为有了这单侧抑制,才使得神经网络中的神经元也具有了稀疏激活性。尤其体现在深度神经网络模型(如CNN)中,当模型增加N层之后,理论上ReLU神经元的激活率将降低2的N次方倍。

3 神经网络

在这里插入图片描述

3.1 神经网络的表示

在这里插入图片描述

3.2 计算神经网络的输出

在这里插入图片描述

3.3单层感知器

感知器(M-P神经元模型)
感知器(Perceptron)由两层神经元组成,如图所示,输入层接收外界输入信号后传递给输出层,输出层是M-P神经元,亦称“阈值逻辑单元”。在M-P神经元模型中,神经元接收到来自n个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接进行传递,神经元接收到的总输入值将与神经元的阈值进行比较,然后通过“激活函数”(activation function)处理以产生神经元的输出。

9e277908e599e6679ae2c7afb8a4ded3075.jpg

    理想中的激活函数是下图所示的阶跃函数,它将输入值映射为输出值“0”或“1”,显然“1”对应于神经元兴奋,“0”对应于神经元抑制。然而,阶跃函数具有不连续、不光滑等不太好的性质,因此实际常用Sigmoid函数作为激活函数,如图所示,它把可能在较大范围内变化的输入值挤压到(0,1)输出范围内,因此,有时也称为“挤压函数”。

62049eb49590502b65c10d3f12758286cb8.jpg

把许多个这样的神经元按一定的层次结构连接起来,就得到了神经网络。

感知器能很容易地实现逻辑与、或、非的运算,注意到
在这里插入图片描述
假定函数f为图(a)中的阶跃函数,且x1,x2的取值为0或1,下面通过有两个输入神经元的感知器来实现逻辑与、或、非的运算。

在这里插入图片描述

“与”(x1∧x2):令w1=w2=1,θ=2,则

仅在x1=x2=1时,y=1;

“或”(x1∨x2):令w1=w2=1,θ=0.5,则
在这里插入图片描述

    当x1=1或x2=1时,y=1;

“非”(¬x1):令w1=-0.6,w2=0,θ=-0.5,则
在这里插入图片描述

    当x1=1时,y=0;当x1=0时,y=1;

更一般地,给定训练数据集,权重wi(i=1,2,… , n)以及阈值θ可通过学习得到,阈值θ可看作一个固定输入为-1.0的哑结点所对应的连接权重w(n+1),这样,权重和阈值的学习就可统一为权重的学习

4 卷积神经网络(CNN)

4.1 边缘检测示例

在这里插入图片描述

4.2 Padding

卷积的缺点

  • 第一个缺点是每次做卷积操作,你的图像就会缩小,从6×6缩小到4×4,你可能做了几次之后,你的图像就会变得很小了,可能会缩小到只有1×1的大小。不想让图像在每次识别边缘或其他特征时都缩小
  • 第二个缺点时,如果你注意角落边缘的像素,这个像素点(1,1)只被一个输出所触碰或者使用,因为它位于这个3×3的区域的一角。但如果是在中间的像素点,比如这个(3,4),就会有许多3×3的区域与之重叠。所以那些在角落或者边缘区域的像素点在输出中采用较少,意味着你丢掉了图像边缘位置的许多信息。

为了解决这些问题,可以在卷积操作之前填充这幅图像。在这个案例中,可以沿着图像边缘再填充一层像素。如此,那么6×6的图像就被填充成了一个8×8的图像。如果用3×3的图像对这个8×8的图像卷积,得到的输出就不是4×4的,而是6×6的图像,就得到了一个尺寸和原始图像6×6的图像。

卷积的分类
在这里插入图片描述

5 循环神经网络【RNN】

5.1 序列模型

在这里插入图片描述
在这里插入图片描述

5.2 循环神经网络

在这里插入图片描述
在这里插入图片描述

5.3 通过时间的反向传播

6.注意力模型【Attention Model】

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

司六米希

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值