![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习基础理论
echo爱毛毛1990
感觉来到了一个新世界啊啊啊
展开
-
生成模型与判别模型
判别式模型与生成式模型上面文章用表格形式很好总结了两种模型。我的理解李航《统计学习》书里,监督学习是学习一个模型,原创 2016-11-29 12:17:57 · 348 阅读 · 0 评论 -
似然函数与最大似然估计
参考博客《似然函数Likelihood function》感谢作者分享。我的归纳:概率与似然性概率用于在已知一些参数的情况下,预测接下来的观测所得到的结果,而似然性则是用于在已知某些观测所得到的结果时,对有关事物性质的参数进行估计。似然函数是一种关于统计模型中参数的函数。例如,已知有事件A发生,运用似然函数,我们估计参数B的可能性。表明在已知观测结果情况下,似然函数的值越高,该参数值可使模型越合理。转载 2016-11-29 19:05:08 · 937 阅读 · 0 评论 -
KL散度
百度百科相对熵 在概率论或信息论中,KL散度( Kullback–Leibler divergence),又称相对熵(relative entropy),信息散度(information divergence),信息增益(information gain),是描述两个概率分布P和Q差异的一种方法。它是非对称的,这意味着D(P||Q) ≠ D(Q||P)。特别的,在信息论中,D(P||Q)表示当用概转载 2016-12-20 11:29:47 · 1288 阅读 · 0 评论 -
OpenAI:generative-models blogs
Three approaches to generative models Most generative models have this basic setup, but differ in the details. Here are three popular examples of generative model approaches to give you a sense of the转载 2016-12-20 15:25:50 · 551 阅读 · 0 评论 -
HMM学习
马尔科夫过程: 该过程中,每个状态的转移只依赖于之前的 n 个状态,这个过程被称为1个 n 阶的模型,其中 n 是影响转移状态的数目。 如果是1阶: 状态只与前一时刻状态有关。 隐马尔科夫模型: 状态不可获得,称作隐藏状态,但能够由观测状态推断隐藏状态,即可以观察到的状态序列和隐藏的状态序列是概率相关的。 于是我们可以将这种类型的过程建模为有一个隐藏的马尔科夫过程和一个与这个隐藏马尔转载 2017-01-26 13:20:14 · 849 阅读 · 0 评论 -
LSTM
RNN用以解决传统神经网络无法令信息前后依赖的问题,但是不能解决长期依赖的问题。转载 2017-02-03 15:48:46 · 698 阅读 · 0 评论