机器学习
文章平均质量分 81
张好好-学习
这个作者很懒,什么都没留下…
展开
-
机器学习4——Logistics回归
这里写目录标题Logistics回归是什么前言Logistics回归公式Logistics回归实现二分类问题Logistics回归实现病马的分类问题(二分类)处理流程:数据预处理:处理数据集中的缺失值代码实现时的一些注意事项Logistics回归是什么前言回归: 利用直线对数据点进行拟合的过程称为回归Logistics回归的主要思想: 根据现有的数据对分类边界线建立回归公式,以此进行分类。“回归”一词其实就是表示要找到该分类边界线的最佳参数。寻找最佳参数的过程采用最优化算法。原创 2022-03-08 15:31:55 · 1975 阅读 · 0 评论 -
机器学习3——朴素贝叶斯(基于概率论的分类方法)
文章目录贝叶斯公式条件概率全概率公式贝叶斯公式先验概率、后验概率朴素贝叶斯贝叶斯公式条件概率事件(结果):A原因(条件):B公式:P(B∣A)=P(AB)P(A) P(B|A)=\frac{P(AB)}{P(A)}P(B∣A)=P(A)P(AB)变形:P(AB)=P(B∣A)P(A)=P(A∣B)P(B)P(AB)=P(B|A)P(A)=P(A|B)P(B)P(AB)=P(B∣A)P(A)=P(A∣B)P(B)多事件的条件概率公式:P(A1A2A3A4A5)=P(A1)P(A2∣原创 2022-03-03 19:30:01 · 1090 阅读 · 0 评论 -
机器学习2——决策树
信息熵(熵)参考链接1参考链接2熵常用来作为一个集合的信息的量化指标。进一步可以作为一个系统的量化指标或者参数选择的依据。熵越大代表集合信息的不确定程度越大。(不确定程度与随机变量的概率分布有关,概率分布越均匀,不确定程度越大)公式X表示随机变量,H表示熵,p(x)表示事件x发生的概率。且,0log(0)=0。当log函数以2为底时,熵的单位是比特(bit)当数据集中值含有一类数据时,数据的纯度最高,则熵最小,E=0为何要使用上述公式计算熵呢?因为熵需要满足以下条件:单调性,发生概原创 2022-02-26 17:49:02 · 469 阅读 · 0 评论 -
机器学习1——K-近邻算法
算法概述工作原理:给定一个样本数据集合,作为训练集,该数据集中每条数据都知道其对应的类别标签。输入一个没有标签的新数据,希望根据训练集的样本数据判断该输入数据的类别。求解思想如下:将输入数据与样本集中的所有数据计算特征距离(相似度),根据距离进行排序,选择距离最近的前k个样本,将该k个样本中出现次数最多的类别作为输入数据的类别。算法特点K近邻算法无需训练,直接计算特征距离即可优点:对异常值不敏感,精度高,没有假设条件缺点:计算复杂度高、空间复杂度高...原创 2022-02-25 11:07:14 · 100 阅读 · 0 评论