深度学习
·
zlinzju
这个作者很懒,什么都没留下…
展开
-
迁移学习中的特征提取
通过特征提取转移学习通常,您会将卷积神经网络视为端到端图像分类器:我们将图像输入到网络。向前的图像通过网络传播。我们在网络末端获得最终的分类概率。但是,没有“规则”规定必须将图像向前传播通过整个网络。相反,我们可以:在任意但预先指定的层(例如激活层或池层)停止传播。从指定图层中提取值。将值视为特征向量。在对待网络中的特征提取器时,我们实质上是在预先指定的层(通常在全连接层之前...原创 2020-03-28 20:37:22 · 6279 阅读 · 4 评论 -
理解3D卷积
文章目录概述卷积核的维度2D卷积2D 单通道卷积2D 多通道卷积3D卷积3D 单通道3D 多通道参考链接概述a)和b)分别为2D卷积用于单通道图像和多通道图像的情况(多通道图像可以指同一张图片的3个颜色通道,也可以指多张堆叠在一起的图片)。对于每一个滤波器(卷积核),输出一张二维的特征图,多通道的信息被完全压缩了。输出的通道数由滤波器个数决定,有几个滤波器,输出就有几个通道。而c)中3D卷...原创 2020-03-12 23:39:25 · 12768 阅读 · 5 评论 -
无监督学习(四)
文章目录自编码器自编码器结构自编码器范例自编码器理解参考链接无监督学习中的两个非概率模型:稀疏编码与自编码器 自编码器自编码器结构自编码器范例上图所示,编码器的过滤器(filters)为 W,函数为 Sigmoid 函数,解码器的过滤器(filters)为 D , 函数为线性回归函数。假设这是一个拥有 D 个输入和 D 个输出的自编码器,包括 KKK 个隐单元(hid...原创 2020-03-08 22:18:04 · 446 阅读 · 0 评论 -
无监督学习(三)
文章目录非概率模型概率模型稀疏编码(Sparse Coding)稀疏编码的概念稀疏编码的训练稀疏编码的理解自编码器参考链接无监督学习中的两个非概率模型:稀疏编码与自编码器 非概率模型问题设定:假设输入空间(特征空间)为欧几里得空间X,维数是d,我们主要考虑二分类问题,所以输出空间设定为Y(Y={-1,1})。x代表输入空间中的一个随机向量,y代表输出空间中的一个随机变量。P(x...原创 2020-03-08 00:31:48 · 625 阅读 · 0 评论 -
无监督学习(一)
图片经过压缩,得到一个信息量小但包含了大部分关键信息的图像,再从该图像解压恢复出原图像大小,这样的过程。为什么需要压缩呢?有时神经网络需要接收大量输入信息,比如输入高清图片时,神经网络从上千万个信息源中学习是个非常吃力的工作,所以需要从原图像中提取出最具代表性的信息,再把缩减过后的信息放进神经网络中学习。将源数据 白色X,压缩再解压,变为黑色X,再通过不断的对比黑白X求出预测误差,反向传递,进而...原创 2020-03-06 16:48:02 · 2956 阅读 · 0 评论 -
表示学习(特征学习)
文章目录表示学习特征工程与表示学习深度学习的表示学习注:深度学习不等于多层神经网络什么时候用「手工提取」什么时候用「表示学习」?关于特征表示学习的算法参考资料表示学习表示学习的基本思路,是找到对于原始数据更好的表达,以方便后续任务(比如分类)。机器学习中,同样的数据的不同表达,会直接决定后续任务的难易程度(换言之,表示方法的选择通常依赖于后续任务的需求),因此找到好的数据表示往往是机器学习的核...原创 2020-03-01 16:28:42 · 21856 阅读 · 1 评论