![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
ML
透明的胡萝卜
这个作者很懒,什么都没留下…
展开
-
ML-机器学习基础
目录偏差与方差导致偏差和方差的原因深度学习中的偏差与方差生成模型与判别模型两者之间的联系优缺点常见模型先验概率与后验概率偏差与方差偏差与方差分别是用于衡量一个模型泛化误差的两个方面: 模型的偏差,指的是模型预测的期望值与真实值之间的差; 模型的方差,指的是模型预测的期望值与预测值之间的差平方 在监督学习中,模型的泛化误差可分解为偏差、方差与...原创 2019-02-27 20:02:19 · 235 阅读 · 0 评论 -
ML-逻辑回归-Softmax-交叉熵(小航)
在分类问题中,交叉熵的本质就是【对数】似然函数的最大化逻辑回归的损失函数的本质就是【对数】似然函数的最大化最大似然估计讲解:https://www.jianshu.com/p/191c029ad369参考统计学习方法笔记 P79softmax通过Softmax回归,将logistic的预测二分类的概率的问题推广到了n分类的概率的问题。通过公式softmax...原创 2019-02-27 20:30:14 · 486 阅读 · 0 评论 -
ML-机器学习实践
目录超参数选择Gride SearchRandom Search相关库几种参数估计的区别与联系:MLE、MAP、贝叶斯TODO余弦相似度(cos距离)与欧式距离的区别和联系1)区别2)联系归一化 标准化混淆矩阵、模型度量指标:准确率、精确率、召回率、F1值关联规则挖掘的3个度量指标:支持度、置信度、提升度超参数选择Gride Searc...原创 2019-03-05 15:58:17 · 372 阅读 · 0 评论 -
ML-朴素贝叶斯-先验分布/后验分布/似然估计
文章目录引言概念后验分布朴素贝叶斯朴素在哪里?[逻辑回归与朴素贝叶斯有什么区别](https://www.zhihu.com/question/265995680)朴素贝叶斯的参数估计极大似然估计贝叶斯估计引言介绍先验分布/后验分布/似然估计参考 一个例子搞清楚(先验分布/后验分布/似然估计)概念故事:隔壁小哥要去15公里外的一个公园,他可以选择步行走路,骑自行车或者开辆车,然后通过其...原创 2019-02-21 22:13:07 · 1965 阅读 · 0 评论 -
ML-数据分析模板
文章目录机器学习-数据分析模板ObjectiveData Set Information:Attribute Information:Input单特征分析机器学习-数据分析模板Objective我们的任务:预测一个人的收入能否超过五万美元人口普查数据集: https://archive.ics.uci.edu/ml/datasets/adultData Set Information:...原创 2019-02-20 15:00:51 · 2042 阅读 · 1 评论 -
ML-朴素贝叶斯
参考《西瓜书》P151以前对贝叶斯参数的计算过程不是很清楚,在西瓜书里讲的很详细,原来可以把X属性分为离散型与连续型,离散型的话可以直接按照频率计算,连续型的话,要用极大似然估计,首先假设概率密度函数满足一个分布,比如正态分布,然后利用已知的数据集(X,Y),来预测参数。预测过程可以参考逻辑回归推到损失函数。后验概率由于对所有类别来说P(X)相同,因此贝叶斯判定准则有...原创 2019-03-20 19:44:38 · 239 阅读 · 0 评论 -
ML-熵、条件熵、信息增益
通俗理解条件熵特征选择之信息增益法(必看!系统介绍了熵、条件熵、信息增益的概念及推导)条件熵的计算(必看!知乎前三个回答都看一下,有关于熵、条件熵、信息增益的实践)我通过例子一步一步讲解这个概念。在决策树算法的学习过程中,信息增益是特征选择的一个重要指标,它定义为一个特征能够为分类系统带来多少信息,带来的信息越多,说明该特征越重要,相应的信息增益也就越大。概念熵:...原创 2019-03-29 22:21:44 · 410 阅读 · 0 评论