学习记录---latent code 潜在编码

文章介绍了潜在编码的概念,它是数据降维和压缩的过程,用于捕获输入数据的关键特征。潜在空间是这些编码在数学空间的表示。同类潜在编码在该空间中具有相似性。潜在编码应用于自编码器和生成模型,如数据增强通过插值创建新样本。
摘要由CSDN通过智能技术生成


个人学习总结,持续更新中……

参考文献

[1] 快速理解深度学习中的latent code潜在编码

1. 什么是潜在编码?

潜在编码就是一种降维或者说是压缩,旨在用更少的信息去表达数据的本质[1]。

在这里插入图片描述
上图是一个简单的encoder-decoder架构,最细的地方称为瓶颈。压缩一般都是有损的,但如果损失的是噪声或者是无用信息,而保留下来的是最本质的特征,那么这正是我们想要实现的目标。通过encoder压缩之后,更重要的是恢复,即Decoder,如果Decoder成功,那么我们就可以认为这个latent space representation提取input image中最关键的信息(本质特征)。

2.什么是潜在空间?

潜在空间和潜在编码是一个意思,编码 >>> 空间 是符合直觉的,例如3x1的编码就可以画成三维空间的一个点。

3.同类潜在编码的相似性

首先定义什么是同类,椅子和椅子是同类,狗和狗是同类。如图所示,如果使用完整的3D表征去表示A椅子和B椅子,那么他们之间是不会接近的,一眼就可以看出来一个黄色一个黑色,朝向也不同。但,如果把一些"个性化的特征"去掉,仅保留一类的特征,那么它们在潜在空间中的点是非常非常接近的,例如把颜色去掉。在空间中想象,A椅子和B椅子此时会很接近,我们就认为很相似。
在这里插入图片描述

4.潜在编码的应用

那么,我们如果完美的得到一个东西的潜在表征,即latent code(也可以叫latent space or latent space representation),我们可以利用它做什么?

4.1 Antoencoders

在这里插入图片描述
自编码器,顾名思义,自己给自己编码,可以发现本网络输出和输入都是一个东西,latent coder 通过Decoder恢复成了自己。具体的实施就更简单了,只需要把输出与输入做相似度损失,然后反向传播,慢慢地就像了。

4.2 Generative models

同类在空间中是相近的,例如两把椅子的向量为[0.1,0.1]和[0.12,0.12],把这两个喂入网络中,生成的当然是椅子,那如果输入[0.11,0.11]呢?当然也是椅子,这就是插值。下图展示了插值的效果,可以看到同类周围插值就相似但有微小区别的。最简单的应用就是把它当成一种数据增强去扩大数据集。
在这里插入图片描述
下图为两把椅子之间进行线性插值的效果图。
在这里插入图片描述

5.结论

潜在空间可以用少量的数据表示某一个(类)信息,在3D表示等领域中也有更为具体的应用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值