- 博客(5)
- 收藏
- 关注
原创 决策树基础相关(一)
一、信息论基础:熵熵是热力学中表征物质状态的参量之一,其物理意义是体系混乱程度的度量信息熵1948年,克劳德·爱尔伍德·香农将热力学中的熵引入信息论,所以也被称为香农熵 (Shannon entropy),信息熵 (information entropy)。一条信息的信息量大小和它的不确定性有直接的关系。我们需要搞清楚一件非常非常不确定的事,或者是我们一无所知的事,就需要了解大量的...
2019-04-03 13:59:45 1278
原创 逻辑回归相关(一)
一、线性回归和逻辑回归的区别回归算法是一种通过最小化预测值与实际结果值之间的差距,而得到输入特征之间的最佳组合方式的一类算法。对于连续值预测有线性回归等,而对于离散值/类别预测,我们也可以把逻辑回归等也视作回归算法的一种。线性回归与逻辑回归是机器学习中比较基础又很常用的内容。线性回归主要用来解决连续值预测的问题,逻辑回归用来解决分类的问题,输出的属于某个类别的概率,工业界经常会用逻辑回归来...
2019-04-01 21:27:11 795
原创 sklearn参数详解
1.sklearn参数详解: a.KNN •n_neighbors:默认为5,就是k-NN的k的值,选取最近的k个点。 •weights:默认是uniform,参数可以是uniform、distance,也可以是用户自己定义的函数。uniform是均等的权重,就说所有的邻近点的权重都是相等的。distance是不均等的权重,距离近的点比...
2019-03-29 11:33:29 2069
原创 线性回归相关(一)
1.线性回归的原理: 线性回归在假设特证满足线性关系,根据给定的训练数据训练一个模型,并用此模型进行预测。 2.损失函数:是定义在单个样本上的,算的是一个样本的误差 3.代价函数:是定义在整个训练集上的,是所有样本误差的平均,也就是损失函数的平均。在线性回归中,最常用的是均方误差,在逻辑回归中,最常用的代价函数是交叉熵 4.目标函数:最终需要优化的函数。等于经验...
2019-03-29 11:30:50 832
原创 有监督、无监督、泛化能力、过拟合欠拟合、交叉验证
1.机器学习的一些概念: a.有监督学习:训练数据既有特征(feature)又有标签(lable),通过训练,让机器可以自己找到特征和标签之间的联系,在面对只有特征没有标签的数据时,可以判断出标签。 b.无监督学习:训练样本的标记信息未知,,目标是通过对无标记训练样本的学习来揭示数据的内在性质,及规律,为进一步的数据分析提供基础,此类学习任务中研究最多,应用最广的是聚类...
2019-03-29 09:19:33 2947
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人