想象这样一个网络,输入是一组全部为一的向量,目标是一张人脸,经过好多好多轮的训练。我们只要输入这个全部唯一的向量就可以得到这张你熟悉的脸。其实这是因为在训练的过程中,我们通过不断地训练,网络已经将这张人脸图片的参数保存起来了。
这个工作其实已经可以看出他的意义所在了,通过一个网络,将一个高维空间的人脸映射为低维空间的一个向量。那么如果我将这个向量定义为四维,采用one-hot的表达方式表达四张不同的脸,那么这个网络就可以表达四个脸,emm,你输入不同的数据,他就会输出不同的脸来。
你也许会说,那这个几维向量又代表什么呢?如果每增加一个脸就要相应增加空间的维度,那么这个过程也就太不科学了吧。嗯,科学的是,以上只是我随手为了方便大家理解举的例子,其实,在实际应用中,这个维度往往代表的是决定最后成型的各个因素,大家往往称之为隐形因素,也就是在大量的博客推导中我们所看到的Z。在下面这个图中,我们通过六个因素来描述最终的人脸形状,而这些因素不同的值则代表了不同的特性。
理解auto-encoder自编码神经网络
最新推荐文章于 2024-04-28 22:40:24 发布