![](https://img-blog.csdnimg.cn/2019091813595558.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
花书学习笔记
花书学习笔记
究极人工智能瞎琢磨
这个作者很懒,什么都没留下…
展开
-
Part III - 2. Autoencoders
Autoencoders1、欠完备自编码器(Undercomplete Autoencoders)自编码器是神经网络的一种,用于重构训练数据(reconstruction),其有一个描述编码的隐藏层,该编码用于表示输入。该网络由两个部分组成,编码器 h=f(x)\boldsymbol{h}=f(\boldsymbol{x})h=f(x)、解码器 r=g(h)\boldsymbol{r}=g(\boldsymbol{h})r=g(h),如下图1、欠完备自编码器(Undercomplete Autoenc原创 2020-09-18 21:33:37 · 204 阅读 · 0 评论 -
四、卷积神经网路 (Convolutional networks (CNN))
卷积神经网路1、卷积操作简单来说,卷积神经网路是神经网路至少有一层的矩阵乘操作替换卷积操作(convolution)。1、卷积操作卷积操作常见表示形式是两个实值函数之间的操作。下面以一个简单的问题解释卷积操作。假设我们使用激光传感器来追踪一个飞船的位置,由此得到飞船位置关于时间的函数 x(t)x(t)x(t)。并且传感器工作在有噪声的环境里,为了降低噪声的影响,我们将采取加权平均来给予最近测量更大的权重。假设权重函数为 w(a)w(a)w(a),其中 aaa 是测量发生的时间。我们得到以下公式来预测原创 2020-08-24 23:49:50 · 777 阅读 · 0 评论 -
二、深度前馈网络——Part II
上接第一部分深度前馈网络原创 2020-07-27 21:15:58 · 220 阅读 · 0 评论 -
二、深度前馈网络——Part I
深度前馈神经网络前馈神经网络(Feedforward Networks)克服了线性模型的局限性。线性模型,例如逻辑回归和线性回归,虽然能通过闭式解或者凸优化达到高效且可靠地拟合,但也有明显的缺陷,那就是该模型的能力被局限在线性函数中,无法理解任何两个输入变量的相互作用。神经网络引入非线性变换,将原始输入进行非线性变换的基础上再进行学习。...原创 2020-07-23 13:20:19 · 419 阅读 · 1 评论 -
一、促使深度学习发展的挑战
促使深度学习发展的挑战促使深度学习发展的挑战1、维数灾难2、局部不变性和平滑正则化3、流形学习促使深度学习发展的挑战深度学习的产生是为了解决传统机器学习算法无法处理的复杂AI任务,所以促使深度学习发展的挑战即为传统机器学习面临的难题。1、维数灾难我们将完整的样本空间看作是由大小相同的方块组成,一个方块代表一个样本。如下图所示,左图为一维样本空间,中图为二维样本空间,右图为三维样本空间。图中每个方块表示一个样本,空白区域表示缺失对应训练样本。可以看出,随着维度的提高,样本空间样本总数呈指数级上升,原创 2020-07-21 22:55:29 · 289 阅读 · 0 评论