Neural Networks for Machine Learning by Geoffrey Hinton (1~2)

机器学习能良好解决的问题

  • 识别模式
  • 识别异常
  • 预測

大脑工作模式

人类有个神经元,每一个包括个权重,带宽要远好于工作站。


神经元的不同类型

Linear (线性)神经元 



Binary threshold (二值)神经元 






ReLu(Rectified Linear Units) 神经元

 



 




Sigmoid 神经元 




Stochastic binary (随机二值)神经元 





学习任务的不同类型

Supervised learning(监督学习)

给定输入向量。学习怎样预測输出向量。

比如:回归与聚类。


Reinforcement learning(增强学习)

学习怎样选择动作去最大化payoff(收益)。

输出是一个动作,或者动作的序列。唯一的监督信号是一个标量反馈

难度在于反馈在非常大程度上是有延时的,并且一个标量包括的信息量非常有限。


Unsupervised learning(非监督学习)

发现输入的良好内在表达形式。

提供输入的紧凑、低维度表达。


由已经学到的特征来提供输入的经济性高维度表达。

聚类是极度稀疏的编码形式。仅仅有一维非零特征



神经网络的不同类型

Feed-forward neural networks (前向传播神经网络)

超过一层隐含层即为深度神经网络。

 


Recurrent networks(循环神经网络) 



生物学上更可信。

用RNN能够给序列进行建模:

等效于很深的网络,每层隐含层相应一个时间片。

隐含层有能力记忆长时间信息。 




从几何角度看感知机

Weight-space (权重空间)

每一个权重相应空间一维。

空间每一点相应某个特定权重选择。

忽略偏置项,每一个训练样本能够视为一个过原点的超平面。



把全部的训练样本都考虑进去,权重的可行解就在一个凸锥里面了。 




二值神经元做不到的事


同或 



循环简单模式识别 



不论对于模式A或是模式B,每次把整个训练集跑完时,神经元得到的输入都是全部权值的4倍

没有不论什么差别。也就无法区分两者之间的差异了(非循环模式能够识别)。


使用隐藏神经元

线性神经元再多层也是线性的,不会添加网络学习能力。

固定输出的非线性也不够。

学习隐藏层的权重等效于学习特征。


欢迎參与讨论并关注本博客微博以及知乎个人主页兴许内容继续更新哦~

转载请您尊重作者的劳动,完整保留上述文字以及文章链接,谢谢您的支持!

转载于:https://www.cnblogs.com/mfmdaoyou/p/7236665.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值