02 神经网络 - 神经网络和深度学习 [Deep Learning Specialization系列]

本文是Deep Learning Specialization系列课程的第1课《Neural Networks and Deep Learning》中Logistic Regression as a Neural Network部分的学习笔记。

内容包括:

  • 逻辑回归和二进制分类
  • 损失函数、代价函数和梯度递减法
  • 计算图
  • 正向传播和反向传播
  • 向量化

1. 逻辑回归和二进制分类

逻辑回归(Logistics Regression)是用来处理二进制分类(Binary Classification)的一个算法,比如简单的是猫(1)或不是猫(0)的图像分类问题。

对一张RGB图片,计算机是以像素来存储的,假如输入的是一个6464的RGB图片,其总共大小为6464*3=12288。 那么输入数据x的维度就是nx = 12288

二进制分类,就是输入图片(将其转换为向量x),通过一个分类方法,来判断这个图片上的内容(输出y)。
这里单个训练数据就是(x, y), 其中,x是 n x n_x nx维的特征向量,y是1或0的标注数据。
二进制分类

当训练数据集有m个时,训练数据就可表示为
{ ( x ( 1 ) , y ( 1 ) ) , ( x ( 2 ) , y ( 2 ) ) , … , ( x ( m ) , y ( m ) ) } \{ {(x^{(1)}, y^{(1)}), (x^{(2)}, y^{(2)}), …, (x^{(m)}, y^{(m)})}\} { (x(1),y(1)),(x(2),y(2)),,(x(m),y(m))}
此时训练数据集中的X就是 n x ∗ m n_x*m nxm维度的矩阵了,而Y 1 ∗ m 1*m 1m维度的矩阵。
数据集m的情况

逻辑回归

继续上面的二进制分类问题,当我们输入x(比如说转变为特征向量的图片),得到 y ^ \hat y y^,这个 y ^ \hat y y^是这个标注结果y的一个概率,即 p ( y = 1 ∣ x ) p(y=1 | x) p(y=1x)
这里,x仍是一个 n x n_x nx维度的特征向量。

对于线性回归问题,这里会涉及到两个参数:wb,其中w是和x同维度的向量,b是一个实数(也成为偏置,bias)。最后的方程式是:
y ^ = w T ∗ x + b \hat y = w^T * x + b y^=wTx+b

由于 y ^ \hat y y^y=1 的概率,对上面的公式,我们应该加一个函数将其限定在(0, 1)这个区间内,这个函数就叫做激活函数(Activate Function),比如sigmoid、relu函数。
输出: y ^ = σ ( w T ∗ x + b ) \hat y = \sigma (w^T * x + b) y^=σ(wTx+b)
sigmoid函数: σ ( z ) = 1 / ( 1 + e − z ) \sigma (z) = 1 / (1 + e^{-z}) σ(z)=1/(1+ez)
逻辑回归
一般情况下,我们会把wb分开来处理,但可能有些研究会将其合并为统一的参数。

2. 损失函数和代价函数

由于我们的训练数据一般是一个数据集,因此针对某一个数据时,一般在对应的参数右上角加一个 ( i ) (i) (i)来标记,如:

  • 输入: { ( x ( 1 ) , y ( 1 ) ) , . . . , ( x ( m ) , y ( m ) ) } \{ {(x^{(1)}, y^{(1)}),..., (x^{(m)}, y^{(m)})}\} { (x(1),y(1)),...,(x(m),y(m))}
  • 输出: y ^ ( i ) \hat y^{(i)} y^(i)

则逻辑回归函数为:
y ^ ( i ) = σ ( w T ∗ x ( i ) + b ) \hat y^{(i)} = \sigma (w^T * x^{(i)} + b) y^(i)=σ(wTx(i)+b) where σ ( z ( i ) ) = 1 / ( 1 + e − z ( i ) ) \sigma (z^{(i)}) = 1 / (1 + e^{-z(i)}) σ(z(i))=1/(1+ez(i))

损失函数(Loss Function)

损失函数(Loss Function)是为了量测输出值 y ^ \hat y y^是有多接近标注数据y,表示为 ℓ ( y ^ , y ) \ell (\hat y, y) (y^,y),这里使用log函数,而不是平方误差(因为平方误差会得到带有多个局部最优值的优化问题。 因此,通过梯度下降法可能找不到全局最优值)。

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值