Hinton机器学习和神经网络
1.线性神经元
输出的Y的函数是偏置b加上所有线性输入X乘以权值W的总和。## 标题
把它的X轴在输入中考虑偏执和加权激活,我们可以得到值为0的直线。
2.二进制阈值神经元
在二进制阈值神经元中,首先对输入进行加权计算,发送一个尖峰信号,如果输入的加权达到了阈值,每一个神经元通过结合其他神经元获得的值来降低自己的真实值。
输入类型的作用,加权的输入高于阈值,输出为1否者输出为0.
用两种方式来描述二进制阈值神经元:
可以说输入Z是输入乘上权值的总和。
总的输入包括偏执项,所以总的输入是线性输入乘上权值加是偏执项。
如果输出高于阈值输出是1,否则是0。
如果输入大于0输出为1,如果总是输入是0对应是输出也是0.
它们等价,第一个公式中的阈值等于第二个公式中的偏置项取反。
3.Relu激活神经元
Relu激活神经元结合了线性神经元和二值化阈值神经元。
首先计算输入的线性加权,但它的输出是非线性的加权,以同样的方式计算Z,如果Z小于0我们输出0,否则我们输出Z,所以大于0是线性的,但是在等于0处我们很难确定,当值大于0时我们容易确定输出,获得很多参数。
4.sigmoid神经元
好处:有光滑的导数,倒数是持续变化。
它的输出是实数值,对于总输入有光滑和约束作用,通常我们会采用逻辑回归函数。总的输入Z是一个很大的正项函数,e ^ (-z)约为0,所以输出为1,如果总的输入是一个很大的负数 , e ^ (-z)是一个很大的正数,所以输出为0,e^(-z)为1时,输出为1/2。
5.随机二进制神经元
用逻辑回归来计算实数值,这个输出数值是尖峰的概率,但是不是输出一个真实的概率值,实际上他们做的是一个概率决定,所以真实的输出是1或者0,输出的本质上是随机的,所以它们把概率p转化生成1的概率,而不是一个实数值,当然,如果输入的是一个很大的正数,,那很可能是输出1,如果输入的是一个很大的负数那输出的很可能是0。
6.ANN的MNIST学习范例
该网络有两层神经元,一层是输入神经元,它的激活值代表了像素的强度,还有一层是输出神经元,它的激活值对应着输出类别。
我们用黑色和白色的圆圈来表示连接权,其中的圆圈的面积表示强度大小,圆圈的颜色区分代表的不同标识。最开始的权限知识一些小的,随机的权限,现在给这些网络展示一些资料然后让它学习权值,这样会比那些随机的权值更好。当我们给它展示一张图像的时候,我们需要提高图片中指向正确分类的活跃像素区域对应的权值,如果我们仅仅采取这一项处理,权值将会无限提升,最终导致我们无论输入什么图片,都会指向无差别的结果,所以缩减指向网络自身趋向的分类结果的活跃像素区域对应权值。
我们正在训练网络去做正确的事,而不是当前有趋势去做的事,当然如果它做的是正确的事,那么我们做出来的增量在学习规则的第一步就会完全的抵消掉减量,所以一切都不会改变。
7.机器学习算法的三大类
7.1监督学习
监督学习运行需要最先选取一个模型类别(模型类别指我们准备做候选的一些列模型),可当作放入输入向量和一些参数可以得到一个输出y的函数。因此一个模型类别知识映像的一种方法,从输入到输出的过程中应用一些数据参数W,接着调整这些数值参数,使这个函数映射很好地拟合输入数据。
拟合:通常是指调整参数以减少每个训练案例的目标输出t与模型产生的实际输出y之间的差异。
模型类 y = f ( x ; W ) 数字参数W
监督学习包括两种形式:
1.1在回归中,目标输出是一个实数,或者实数的完整向量。
目标尽可能地接近正确的实数,例如:一只股票在六个月内的及格情况,或者明天中午的温度。
2.1在分类中,目标输出是一个类别标签,
分类可以有很多标签,例如:在1到9之间做出选择,或者是在正反案例做选择。
7.2强化学习
在强化学习中,输出是一个实际的动作序列,在选择每个行为时的目标是使预期望的奖赏总和最大化。
强化学习与监督学习在很多方面有着不同的地方。最重要的一点就是没有“输入-输出”这样的成对数据。取而代之的是,智能体采取某个动作后,会立马得到一个奖励,而且并不知道哪个动作从长远角度来说可以获得更多的奖励总和。因此智能体很有必要汇聚系统所有的状态、动作、转移概率、奖励进而取得最优的表现。另一个区别于监督学习的的重要方面是,在线学习效果很重要,因为强化学习中评估和学习经常是交替进行的。
7.3无监督学习
无监督学习的目标是获得输入的内部表征,依据特征学习为输出提供经济的表示,提供输入的压缩的低维表示。
无监督学习常常被用于数据挖掘,用于在大量无标签数据中发现些什么。它的训练数据是无标签的,训练目标是能对观察值进行分类或区分等。例如无监督学习应该能在不给任何额外提示的情况下,仅依据所有“猫”的图片的特征,将“猫”的图片从大量的各种各样的图片中将区分出来。