Hinton机械学习与神经网络(一)

本文介绍了Hinton在机械学习和神经网络领域的基础概念,包括为何需要机械学习,神经元网络的工作原理,如前馈式和反馈式网络。文中详细讲解了线性神经元、二值阈值线性函数、ReLU激活和sigmoid神经元,并以MNIST字符识别为例展示了神经网络的应用。此外,还概述了监督学习、强化学习和无监督学习的基本思想。
摘要由CSDN通过智能技术生成

Hinton机械学习与神经网络(一)

1、为什么我们需要机械学习:
有很多问题场景中比较难写出手工的计算程序,实现三维对象额识别等。在混乱的场景下有新的想法和新重点难以实现。
2、什么是神经元网络:
神经元网络,是由大量类似于神经元的处理单元相互连结,而形成的非线性复杂网络系统。它是在现代神经科学研究成果的基础上提出的,试图通过模拟大脑神经元网络处理、记忆信息的方式,完成人脑那样的信息处理功能,是非线性的并行结构。
神经元网络的运行方式,有前馈式网络和反馈式网络。
前馈式网络:采用分层网络结构形式,实现从输入层结点的状态空间,到输出层状态空间的非线性映射,它广泛采用于模式分类、特征抽取等方面。
反馈式网络:采用相互连结型网络结构形式,所在结点既可以输入,又是计算单元,同时向外输出,它用于优化计算和联想记忆。
3、简单的神经元模型:
线性神经元
z= ∑ i x i w i \displaystyle\sum_{i}^{} x_iw_i ixiwi+b

输出y的函数是偏置b加上所有线性输入x乘以权值w的总和
图像如下:在这里插入图片描述

二制阈值线性函数
首先:对输入进行线性加权计算,发送尖峰信号,如果加权输入高于阈值则输出1,否则输出0.
在这里插入图片描述
描写二值化阈值神经元的两种等价方法
1:z= ∑ i x i w i \displaystyle\sum_{i}^{} x_iw_i ixiwi+b

如果 z>=0,y=1;
否则 y=0;

总的输入z包括偏置项,所以总的输入是线性输入乘上权值加上偏置项
2:z= ∑ i x i w i \displaystyle\sum_{i}^{} x_iw_i ixiwi
如果z>=阈值 y=1;
否则y=0;
输入z是输入乘上权值的激活
1和2的关系是阈值等于-b(即第二个公式中的阈值等价于第二个公式的偏置取反)
在这里插入图片描述

ReLU激活神经元:
它包括了线性神经元和二值阈值线性函数
它先计算输入的线性加权,然而输出却是非线性加权
在这里插入图片描述
z的值大于0则为线性函数,等于0无法确定是什么函数。
sigmoid 神经元:
其输出的是实数值,输入存在光滑和约束作用
逻辑递归函数:
在这里插入图片描述

图像:
在这里插入图片描述
好处:有一个光滑的导数(导数是连续变化的)
随机二进制神经元
具体函数表达如下所示:
1:z= ∑ i x i w i \displaystyle\sum_{i}^{} x_iw_i ixiwi+b

p(s=1)=1/(1+exp(−z))

输出值是1或0,如果值很大,则可能输出1(有很大概率),如果值很小,则输出值可能是0(有很大概率)。

ANN的MINST学习范例:(识别字符)
在这里插入图片描述
这里面有两层神经元,一个是输入神经元,一个是输出神经元。输入神经元的激活值代表像素的强度,输出神经元代表了对应的输出类别。
在这里插入图片描述
首先:考虑如何可视化权值的更新
为每一个输出单元构造一个映射函数,展示出每个邻域的输入像素,对应的连接权的强度,每个输入像素之间联系的优点。
用黑色和白色表示连接权,圆圈表示连接权,圆圈的面积表示强度大小,圆圈的颜色区分代表的不同标识。最开始的权值只是小的,随机的权值,接着给这些网络展示一些资料,让其学习权值(比随机的权值好)。接着为其展示一张图片,我们需要提高图片中指向正确分类的活跃像素区域和对应的权值。如果只做这一个处理,权值就会无限提升,导致我们无论输入什么图片都会指向无差别的分类结果。所以,我们需要缩减那些指向网络自身趋向的分类结果的活跃像素区域对应的权值。

机器学习算法的三大类:
1、监督学习:当给出一个输入向量的时候模型可以试图给出一个对应的预测值。监督学习包括两种形式。在回归中,目标输出是一个实数或者是实数的完整向量。在分类中,目标输入是一个类别标签。监督学习的运行需要最先选取一个模型类别,模型类别指我们准备当作候选的一些列模板(放入向量和一些参数可以得到一个输出y的函数),因此一个模型类别只是映像类别的一种方法。从输入到输出的过程中应用一些数据参数W,接着调整这些数值参数,使这个函数映射很好地拟合输入数据。
**拟合:**使每一个训练架构中的目标输入与机器学习系统的实际输出之间的差异最小。
如果我们使用输出的实数值缩小这种差异的一个显著措施是算出我们系统y的输出和正确输出t之间的方差,乘以二分之一。

2、强化学习:通过尝试选择动作或序列动作来使奖赏达到最大,而奖赏值只在设定好的动作下才会触发。输出是一个实际的动作序列,必须选定足以触发奖赏的动作,在选择每个行为时的目标是使预期望的奖赏总和最大化(通常使用折现银子)。强化学习使困难的因为:
(1)回报通常被延误,因此确切的知道序列动作中哪一个动作是错误的是很困难的。
(2)奖赏值。尤其是只对应很少触发场景(动作)的,往往只提供了很少的关于参数如何调整信息。强化学习的参数比较少,且有限。

3、无监督学习:需要尝试挖掘一种对于输入数据内部规律的表征方法。目的之一:获得输入的内部表征。无监督学习的其他目标是提供输入的压缩的低维表示(低维表示的一种有限形式是线性的)。其二:依据特征学习为输出,提供经济的表示。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值