李宏毅机器学习Lecture 16 Unsupervised Learning - Auto-encoder 课程笔记
视频地址: https://www.youtube.com/watch?v=Tk5B4seA-AU
首先明确大前提是 unsuperised learning
auto-encoder
想法:首先找一个encoder,通过这个encoder能得到一张图片的精简表达
只学NN encoder 问题:只有input,没有output
只学NN decoder 问题:只有output,没有input
解决方法:把encoder 和decoder 连起来一起学,input一个图片中间变成一个code,再把code通过decoder变成原来的image。
starting from PCA
把PCA当做NN来看,x是input layer, x ^ \hat{x} x^ 是output layer,中间c是hidden layer,c通常由input降维得到的,所以特别窄又称之为bottleneck layer
deep auto-encoder
训练目标和PCA一样, ( x − x ^ ) 2 (x-\hat{x})^{2} (x−x^)