机器学习的学习笔记
文章平均质量分 86
机器学习的学习笔记
2023好运来
这个作者很懒,什么都没留下…
展开
-
机器学习笔记(KNN)
K邻近算法(KNN)过程计算出待分类点与所有标好类点的距离对所有距离进行排序找出最近的K个点待分类点所属的类为K个点中频数最高的类这个过程看起来特别简单,只有两个问题需要考虑:距离怎么定义,K值定义距离常用的距离:欧式距离,曼哈顿距离(Manhattan distance),余弦值(cos), 相关度 (correlation),欧氏距离:X=(x1x_1x1,x2x_2x2,x3x_3x3…,xnx_nxn),Y=(y1y_1y1,y2y_2y2,y3y_3y3…,yny原创 2021-09-25 17:00:13 · 90 阅读 · 0 评论 -
机器学习笔记(随机森林)
随机森林随机森林是将多棵树集成的一种算法,它的基本单元是决策树。本质属于机器学习的一大分支——集成学习(Ensemble Learning)方法。随机森林由决策树组成,一个样本经过决策树处理会得到一个分类结果,然后把所有决策树的分类结果,依据投票法得出样本的最终分类。将若干个弱分类器(决策树)的分类结果进行投票选择,从而组成一个强分类器(随机森林),就是随机森林bagging的思想(bagging的代价是,不知道具体哪个变量起到重要作用,所以bagging改进了预测准确率但损失了解释性。)随机森林的特点原创 2021-09-27 18:57:58 · 668 阅读 · 0 评论 -
机器学习笔记(逻辑回归)
逻辑回归原理逻辑回归最独特的就是引入了:h(x)=11+e−xh(x)=\frac1{1+e^{-x}}h(x)=1+e−x1我最近阅读了一些相关博客,书,还有知乎相关文章,以下是我理解的logistic回归。logistic回归解决的不是回归问题,而是分类问题0-1。对于分类问题显然不能用线性回归来进行拟合,可以给线性回归结果外面加一层阶梯函数y^={1ωx+b > a0ωx+b< a \hat{y}=\begin{cases} 1&原创 2021-09-24 22:02:35 · 323 阅读 · 0 评论 -
机器学习笔记(朴素贝叶斯)
贝叶斯原理贝叶斯最主要的想法是用先验概率来计算后验概率,先验概率指的是没有任何提示信息时的事件C概率,来计算掌握一定信息时事件C概率,用公式:P(C∣X)=P(C)⋅P(X∣C)P(X)P(C|X)=\frac{P(C)·P(X|C)}{P(X)}P(C∣X)=P(X)P(C)⋅P(X∣C)也就是:P(类别∣特征)=P(类别)⋅P(特征∣类别)P(特征)P(类别|特征)=\frac{P(类别)·P(特征|类别)}{P(特征)}P(类别∣特征)=P(特征)P(类别)⋅P(特征∣类别)由于原创 2021-09-26 17:54:34 · 202 阅读 · 0 评论