机器学习
weixin_43654661
这个作者很懒,什么都没留下…
展开
-
Deep auto decoder
什么事自动编码?看一张图:解释就是将高维数据乘以一个参数矩阵(WWW)后边长一个低维code,叫做encode过程;然后将这个code乘以另一个参数矩阵(WTW^TWT)变回高维数据,即为decode;尽量使输入数据和输出数据相似。我们发现这个模型和我们的神经网络很相似,和PCA降维也很相似。在MNIST测试集上试一下:# encoding=utf-8import kerasimp...原创 2018-11-25 22:51:54 · 209 阅读 · 0 评论 -
t-SNE 原理分析
t-SNE(t分布随机邻域嵌入)SNE原理分析困惑度对称SNEt-SNE算法过程t-sne for 手写数字SNE原理分析核心:将欧几里得距离转换为条件概率来表达点与点之间的相似度。假设我们n个高维有数据x1,x2...xnx_1,x_2...x_nx1,x2...xn,我们需要将其降至低维,需要保证的是讲相似的点尽量聚在一起,不相似的点尽量分离。首先我们计算xix_ixi和xj...原创 2018-11-25 13:59:22 · 1861 阅读 · 2 评论 -
Structured SVM
结构化学习概念Structured Linear Model主要解决上述三个问题:what does F(x,y) look like?How to solve the “arg max” problemGiven training data, how to find F(x,y)1.问题1F(x,y)=w1∗ϕ1(x,y)+w2∗ϕ2(x,y)+⋯F(x, y) = w...转载 2018-12-20 19:58:20 · 357 阅读 · 0 评论 -
隐马尔科夫HMM
案例分析首先我们看一个模型实例。假设我们有3个盒子,每个盒子里都有红色和白色两种球,这三个盒子里球的数量分别是:盒子123红球数547白球数563按照下面的方法从盒子里抽球,开始的时候,从第一个盒子抽球的概率是0.2,从第二个盒子抽球的概率是0.4,从第三个盒子抽球的概率是0.4。以这个概率抽一次球后,将球放回。然后从当前盒子转移到下一个盒子进...转载 2018-12-24 14:45:32 · 172 阅读 · 0 评论 -
Seq2Seq with Attention
论文:官方实现:Neural Machine Translation with Attention李宏毅视频讲解:Attention based model传统的的Seq2Seq,他的Decoder 部分输入是:Encoder的ouput和state以及一个zero,如下图所示,这在翻译长文本的时候可能导致部分记忆的丢失,作为改进,大神引入了一个Attention机制。Attention...原创 2019-03-03 11:35:26 · 181 阅读 · 0 评论