吴恩达-机器学习公开课 学习笔记 Week4 Neural Networks: Representation
4 Neural Networks: Representation 课程内容
此文为Week4 中Neural Networks: Representation的部分。
4-1 Motivations
Non-linear Hypotheses
对于许多实际的机器学习问题,特征个数n是很大的。
Neurons and the Brain
神经网络:模仿大脑
从某种意义上来说,如果我们能找出大脑的学习算法,然后在计算机上执行大脑学习算法或与之相似的算法。也许这将是我们向人工智能迈进做出的最好的尝试。人工智能的梦想就是有一天能制造出真正的智能机器。
4-2 Neural Networks
Model Representation I
单个神经元:神经元是一个计算单元,它从输入神经接受一定数目的信息并做一些计算。
- 逻辑单元: 作用类似于神经元
- 偏置单位/偏置神经元: x0 节点
- 激励函数: 对类似非线性函数g(z)的另一个术语称呼
- 权重: 模型的参数
神经网络其实就是这些不同的神经元组合在一起的集合。
(输入层 隐藏层 输出层)
- ai(j):第j层的第i个激励
- 激励(activation) : 由一个具体神经元读入计算并输出的值
神经网络被这些矩阵参数化 θ上标(j) 它将成为 一个波矩阵,控制着比如说从第一层到第二层或者第二层到第三层的作用。
更一般的,如果一个网络在第j 层有sj个单元,在j+1层有 sj+1个单元。那么矩阵θ(j) 即控制第j层到第j+1层映射的矩阵的维度为s(j+1) * (sj+1) 。所以θ(j)的维度是 s(j+1)行 sj+1列。 这里sj+1 当中的1 不是下标的一部分。
Model Representation II
定义额外的项 zi(j),将神经网络的计算向量化。这个计算h(x)的过程也称为前向传播(forward propagation)。
图片的左边部分看起来很像逻辑回归。但是逻辑回归的输入特征值是通过隐藏层计算的。神经网络所做的就像逻辑回归,但是它不是使用 x1 x2 x3作为输入特征,而是用a1 a2 a3作为新的输入特征。特征项a1 a2 a3它们是作为输入的函数来学习的。
4-3 Applications
Examples and Intuitions I
拟合了“且运算”的简单神经网络:
拟合了“或运算”的简单神经网络:
Examples and Intuitions II
x1 XNOR x2
在输入层中,我们只有原始输入值。然后我们建立了一个隐藏层,用来计算稍微复杂一些的输入量的函数。然后,通过添加另一个层,我们得到了一个更复杂一点的函数。
Multiclass Classification
我们处理多类别分类的方法实际上是基于一对多神经网络算法而延伸出来的
所以,这和我们介绍逻辑回归时讨论过的一对多方法其实是一样的。只不过现在我们有四个逻辑回归的分类器,而我们需要对四个分类器中每一个都分别进行识别分类。
在这个例子中,当我们要表征一个具有行人、汽车、摩托车和卡车这样四个不同图片作为元素的训练集。在我们的例子中 h(x) 和 y(i) 它们都应该是四维向量。
测验 Neural Networks: Representation
课程链接
https://www.coursera.org/learn/machine-learning/home/week/4