![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
会魔法的女巫
数据科学渣的养成笔记
展开
-
从最大熵模型看logistic回归与softmax回归
关于李航一书中看到的最大熵模型,一开始从原理上的理解就开始不懂了,查了资料后总结了一些自认为能说服我的解释:1.最大熵模型的实质与原理?为什么要挑选熵最大的模型?最大熵原理是1957年由E.T.Jaynes提出的,其主要思想是,在只掌握关于未知分布的部分知识时,应该选取符合这些知识但熵值最大的概率分布。其实质就是,在已知部分知识的前提下,关于未知分布最合理的推断就是符合已知知识最不确定或最随机的推断,这是我们可以作出的唯一不偏不倚的选择,任何其它的选择都意味着我们增加了其它的约束和假设,这些约束和假设根原创 2020-11-28 09:05:35 · 360 阅读 · 0 评论 -
从GML看logiatic回归与softmax回归
之前对为什么sigmoid函数能表示为概率的问题不明白,看了广义线性回归之后才知道其原理,这篇博客讲得很详细。添加链接描述原创 2020-11-26 18:27:59 · 116 阅读 · 0 评论 -
CART回归树后剪枝_李航统计学习方法
import numpy as npimport collectionsclass Node: def __init__(self,fea = None,val=None,left = None,right = None,res = None,leaf = False,MSE = None,Num = None): #val:划分值 #fea:划分变量 #res:节点的预测值 self.fea = fea self原创 2020-11-21 02:26:31 · 188 阅读 · 0 评论