数据输入层_精通数据科学笔记 深度学习

这一章主要介绍了ANN,CNN,RNN,LSTM,VAE,GAN


利用神经网络(ANN)识别数字

MNIST图集:0~9的手写数字图片,包含60000张训练图片和10000张测试图片,存储格式特殊,需要专门的程序解析

防止过拟合的惩罚项

ANN是很复杂的模型,非常容易发生过拟合,通用的方法是加入惩罚项,常用的惩罚项有三种:

b79a54b85e73560c9299d95c0bdf38c9.png

c32e16e026fc3f23988df4b14acc3f21.png

f687b6f19e84b2a3d6dcec9a93026916.png

防止过拟合之Dropout

在训练模型的每一步中随机暂时剔除一些神经元,在预测时,使用完整的网络,同时需要将相应的神经元输出扩大到原来的

0acdc573b46e1cdd58f0facc50f720bd.png

倍,P是每个神经元被保留的概率。


卷积神经网络(CNN)

ANN丢失了像素之间的位置关系,CNN可以捕捉像素之间的位置关系和模拟人眼对图像的模糊处理

CNN的结构为:输入层,卷积层,池化层,全连接层。其中,卷积层和池化层是为了提取图像特征,全连接层相当于输出层


递归神经网络(RNN)

当前神经元的输出不但能影响后面神经元的状态,还能通过网络影响它前面的神经元。这相当于在神经网络里建立起时间或上下文的概念。

生产中应用广泛的一种递归神经网络:长短期记忆(LSTM),被广泛用于语音识别,自然语言处理和机器翻译等领域。

记长期记忆为

9b35f1edb038d5958c3fb67b99c785ec.png

,短期记忆为

bbfabe208809beb5c94d975541f9f068.png

,模型输入为

1541c14f7b68384668f0f5810aa09afb.png

,则长期记忆的更新机制为

若记忆力度为

c6c632d989dc847b28802bf2e2455b81.png

,则

8969fcaf3c920f5ddf0960f98cf19221.png

若更新力度为

674033e30e5105e7e32d5dec94abbad2.png

,表示多大比例的长期记忆将转换成短期记忆,候选新增记忆为

119c4ca89e81dc320f728974a91641bc.png

1188b2400089c11d452daf628ea87772.png

aa776d85eec90a1ef41e155c125c4d3e.png

长期记忆的更新公式为

65adc8bf89986e6d215a1eda11581fe4.png

非监督学习

VAE=神经网络+生成式模型

VAE属于全连接网络,网络结构通常是对称的,输入层和输出层的神经元个数相同,模型训练的目标是让输入层与输出层越相似越好。

通过神经网络的前半部分,找到相应的隐藏状态,这一步称为编码;然后根据得到的隐藏状态和后半部分神经网络得到还原之后的数据,这一步称为解码,理想情况下,解码之后得到的数据近似等于训练数据,通过这样的模型,我们可以得到数据不可观测的类别(数据的隐藏状态)

GAN

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值