Deep Learning

本文介绍了《GenerativeLearningModel》第二章的内容,涉及深度学习的基础知识,包括结构性和非结构性数据的概念,以及如何使用Keras和TensorFlow构建深度神经网络。文中提到了提高模型性能的技巧,如卷积层、批量归一化和dropout层,这些方法能有效防止过拟合和梯度爆炸问题。
摘要由CSDN通过智能技术生成

本章是学习Generarive Learning Model一书的第二章的内容,本章内容就是简单介绍了一下深度学习的内容,以下内容就是对本章介绍的知识点列举一下,若了解的读者可以跳过,因为笔者阅读时,感觉都是深度学习里一些非常简单基础的知识。

本章介绍的内容如下所示:

  • Structured and Unstructured Data
  • Deep Neural Networks
  • Using Keras and TensorFlow build a deep neural network
  • Improving the Model
    Convolutional Layers
    Batch Normalization
    Dropout Layers

从以上的内容概要可以看出,介绍的内容都是深度学习里非常基础的知识。如果读者是从深度学习过来的,则无需再看;如果不看则心里不踏实(笔者就是这样),那看看也无妨,因为很简单,读者看完这章大概两个小时,因此看起来还是很快的。

首先介绍了结构性和非结构性的数据,结构性的数据就是平常那种能用一个表格来描述的数据,每个数据为一行,不同的列代表不同的特征。而非结构性数据就是不能用表格形式来表示的数据,例如图像,文本,音频等等。

以下是几个表达很有启发性的句子:

  • individual pixels, frequencies, or characters are almost entirely uninformative.(非结构数据种,单个像素、频率或字符几乎完全没有信息)
  • The granularity of the data combined with the high degree of spatial dependence destroys the concept of the pixel or character as an informative feature in its own right.(数据的粒度加上高度的空间依赖性破坏了像素或字符本身作为信息特征的概念)

然后介绍了一个最基本结构的神经网络,也用Keras和TensorFlow举例搭建了一个基本的神经网络。因为举的例子是图像分类的任务,前面所举例的模型是将所有的像素点进行一个flatten的操作,但是这样表现并不好。所以然后又提出了几个能够提高模型性能的方法。分别是CNN, BatchNorm以及Dropout,书中介绍的非常简单。并且深度学习种提高模型的性能有各种各样的技巧,读者若感兴趣,可以自行了解。

关于BatchNorm,其提到了如下内容:很多深度学习模型会存在梯度爆炸的现象,而BtachNorm能够在一定程度上解决这个问题;其也提到了协方差偏移covariate shift,这块笔者看的也不是很清楚,以后若详细了解到此问题继续追更。

而关于Dropout,其能够解决过拟合, by ensuring that the network doesn’t become overdependent on certain units or groups of units that.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

INEVGVUP

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值