神经网络与深度学习笔记(一)

本文是关于神经网络与深度学习的笔记,从逻辑回归出发,介绍了神经网络的基本架构和学习算法,包括初始化参数、前向和反向传播、优化算法等。并通过实例展示了在平面数据分类中不同隐藏层的效果。
摘要由CSDN通过智能技术生成

神经网络与深度学习笔记(一)

1 什么是神经网络

  人工神经网络(artificial neural network,缩写ANN),简称神经网络(neural network,缩写NN)或类神经网络,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。
  神经网络主要由:输入层,隐藏层,输出层构成。当隐藏层只有一层时,该网络为两层神经网络,由于输入层未做任何变换,可以不看做单独的一层。实际中,网络输入层的每个神经元代表了一个特征,输出层个数代表了分类标签的个数(在做二分类时,如果采用sigmoid分类器,输出层的神经元个数为1个;如果采用softmax分类器,输出层神经元个数为2个),而隐藏层层数以及隐藏层神经元是由人工设定。一个基本的三层神经网络可见下图:
神经网络基本结构

2 从逻辑回归到神经元

  这一部分将构建学习算法的总体架构,包括了初始化参数,计算代价函数,及其梯度使用优化算法(梯度下降),以构建图片的猫分类器(cat vs. non-cat datasets)为例。

2.1 Packages

  主要包含的是Numpy(科学计算包)。

2.2 学习算法的一般架构

  接下来将使用神经网络思维方式构建逻辑回归设计一个简单的算法来区分猫的图像和非猫的图像。下图解释了为什么逻辑回归实际上是一个非常简单的神经网络!
逻辑回归网络结构

  ①左边的一维数组:图像所包含的RGB三个通道的像素值,依次从左到右,从上到下形成的一维数组。
  ②找出数据集的尺寸和形状(训练集和测试集的数量:m_train, m_test, num_px,…),重新构造数据集,使每个示例现在都是大小向量( n u m p x ∗ n u m p x ∗ 3 , 1 num_px*num_px*3,1 numpxnumpx3,1),即 x ( i ) x^{(i)} x(i)
  ③Mathematical expression of the algorithm:

For one example x ( i ) x^{(i)} x(i):
z ( i ) = w T x ( i ) + b (1) z^{(i)} = w^T x^{(i)} + b \tag{1} z(i)=wTx(i)+b(1)
y ^ ( i ) = a ( i ) = s i g m o i d ( z ( i ) ) (2) \hat{y}^{(i)} = a^{(i)} = sigmoid(z^{(i)})\tag{2} y^(i)=a(i)=sigmoid(z(i))(2)
L ( a ( i ) , y ( i ) ) = − y ( i ) log ⁡ ( a ( i ) ) − ( 1 − y ( i ) ) log ⁡ ( 1 − a ( i ) ) (3) \mathcal{L}(a^{(i)}, y^{(i)}) = - y^{(i)} \log(a^{(i)}) - (1-y^{(i)} ) \log(1-a^{(i)})\tag{3} L(a(i),y

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值