李宏毅教授神经网络基础架构课程笔记总结

Basic Structure

 

预备知识:

 

神经网络相当于由简单函数(neurons)组成的函数集

 

Fully Connected Layer

 

Recurrent Structure

反复利用同一个结构

相较于前馈网络,前馈网络的参数更多,会容易过拟合

 

深层RNN

 

双向RNN

 

Pyramidal RNN

可以把sequence缩短

Block间的运算可以并行,但sequence之间的运算必须在前一个完成后才能进行

 

每个结构进行的运算:

 

LSTM:

传递信息有两条路径:c和h

c改变地比较慢,因此可以记得长期记忆,h改变地比较快

 

不断重复结构:

 

 

 

 

 

 

 

 

 

 

 

 

GRU

运算量少,参数少,比较不容易过拟合

 

应用:语音识别

目标延迟:只对单向RNN有效

可以使网络更容易学得目标

 

Stack RNN

输入可以无穷大,参数量与输入量无关

Convolutional / Pooling Layer

根据任务的先验知识来简化神经网络

 

稀疏连接性:每个neuron只连接上一层的几个部分

参数共享:不同接受域的参数共享,可以使用更少的参数(远少于全连接的参数量)

 

Pooling Layer

也可以采用mix pooling对几种pooling方法进行混合

Max pooling时也可以采取top k个而不只是一个

 

可以将同一个filter中的output进行pooling->subsampling

将不同filter但是同样接受域的output进行pooling,可以将同一类但不相似的输出集合起来

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值