Machine Learning
文章平均质量分 78
sun_sunnybei
这个作者很懒,什么都没留下…
展开
-
Transfer Learning
假设你手上有一些跟你的task没有直接相关的data,那能不能用这些data帮助我们做一些事情。比如现在要做一些分类: 那不相关的data有很多可能,比如input的分布一样,都是动物,但是task的label不一样。也有一些是input不一样,但是task的label是一样的 有一些不相干管的data能不能帮助我们呢? 比如想找到台语的语音辨识,但是data很少,可以去扒一原创 2018-01-22 23:42:53 · 1673 阅读 · 1 评论 -
Unsupervised Learning: Deep Auto-encoder
Auto-encoder 它的思想是,找一个encoder,比如input一张image,经过encoder,output一个code,它的维度要远比input小,那这个code就代表了这个input某种精简的有效的representation。 但是现在问题是非监督的,我们可以找到一堆input但是不知道output是什么,那我们可以先learn一个decoder,它可以input一原创 2018-01-12 14:53:11 · 529 阅读 · 0 评论 -
Unsupervised Learning: Neighbor Embedding
Manifold Learning(流形学习) 其实我们要做的事情就是降维,但是是非线性的降维。 假设data其实是分布在一个低维的空间中,只是扭曲的被塞到了一个高维的空间中,比如地球的表面,它是一个二维的平面,但是被放到了一个三维的空间中。 在这个manifold中,很近的情况下,欧式距离是有意义的,但是距离比较远的情况下,欧氏距离就没有意义了。 上图中,123点距离比较近,那么原创 2018-01-11 10:27:10 · 291 阅读 · 0 评论 -
Support Vector Machine (SVM)
Support Vector Machine有两个特色: Hinge Loss 我们常见的Binary Classification如下图所示,其中的Loss Function中的表示g(x)如果与Label y一样则输出0,不一样则输出1,所以损失函数变为:g在training set中总共犯了几次错。 但是Loss function是不可以微分的,所以第三步不能用gr原创 2018-01-30 23:29:27 · 505 阅读 · 0 评论