概率
dolphin4mi
这个作者很懒,什么都没留下…
展开
-
对数几率回归
前人栽树,后人乘凉,既然前人已经完成了的工作,我觉得没必要做重复的工作,“拿来主义”对于我个人的入门和学习是必要的。在此谢谢他们。内容来自:https://blog.csdn.net/hongbin_xu/article/details/78270526,如果有侵权,联系我删除。理论推导在以前的博客(机器学习入门学习笔记:(2.1)线性回归理论推导 )中推导了单元线性回归和多元线性回归的模型。...转载 2019-07-18 11:15:45 · 242 阅读 · 0 评论 -
熵(entropy)的理解与最大熵模型
公式及其含义2.信息量由信息量想到的信息熵1. 公式及其含义熵的公式:H(X)=−∑i=1np(xi)logp(xi)H(X)=-\sum_{i=1}^{n} p\left(x_{i}\right) \log p\left(x_{i}\right)H(X)=−i=1∑np(xi)logp(xi)log的原因是,一条信息的可能性数量随着位数的增加是指数的。用二进制bit表示...转载 2019-07-18 11:27:29 · 1104 阅读 · 0 评论 -
频率学派和贝叶斯学派的参数估计
本文99.99%都是取自:https://blog.csdn.net/wzgbm/article/details/51721143文章目录一. 频率学派与贝叶斯学派的区别二. 频率学派的参数估计1) 离散随机变量的似然函数:一. 频率学派与贝叶斯学派的区别在查找“极大似然估计”有关知识点的时候,经常会碰到“频率学派”和“贝叶斯学派”这两个虽故事深厚,但是对于我们实际使用参数估计法并没有什么暖...转载 2019-07-12 14:33:13 · 494 阅读 · 0 评论