- 博客(6)
- 收藏
- 关注
原创 机器学习之支持向量机
支持向量机(Support Vector Machine, SVM)是一种经典的监督学习模型,核心用于分类任务,也可通过改造用于回归(支持向量回归,SVR)。它的核心思想是:在特征空间中找到一个最优超平面,将不同类别的样本分开,且使两类样本到超平面的间隔最大化。标准化后,所有特征都转换为均值为0、方差为1的分布,这有助于提高模型的收敛速度和性能。SVM 在小样本、高维特征场景下表现优异,是机器学习领域的基础算法之一,常被用于文本分类、图像识别、模式匹配等任务。特点:决策边界完全由支持向量决定,对噪声敏感。
2026-01-02 19:15:56
595
原创 机器学习之朴素贝叶斯
值得注意的是,这个假设大幅降低了计算复杂度,让算法能处理高维特征,但也牺牲了一定的精度(现实中特征往往存在关联)。P(Y∣X):后验概率,即已知特征 X 时,样本属于类别 Y的概率(模型最终要计算的目标);P(Y):先验概率,即类别 Y在训练集中出现的概率(无任何特征信息时的类别概率);P(X):证据因子,即特征 X出现的总概率(对所有类别来说是常数,计算时可忽略)。P(X|Y):似然概率,即已知类别Y时,特征X出现的概率;判断西瓜是“好瓜”还是“坏瓜”,下面是训练数据集。的某个取值x,我们计算在类别。
2026-01-02 18:00:23
348
原创 机器学习之决策树剪枝处理
后剪枝的操作顺序是 从叶节点→内部节点→根节点,逐层向上检查每个子树是否需要剪枝,具体步骤如下:确定剪枝候选对象,遍历完整决策树的所有非叶节点(即内部节点),把每个内部节点及其下属的所有分支看作一个 “待剪枝子树”。1)如果 操作 B 的误差 ≤ 操作 A 的误差:说明剪掉该分支后,模型在验证集上的性能没有下降,甚至更好,此时执行剪枝(保留操作 B 的叶节点)。将该子树的根节点(内部节点)直接替换为叶节点,叶节点的类别由子树内所有样本的多数类决定(或回归任务的均值)。1. 前提准备:生成 “完全生长树”
2026-01-01 18:49:48
901
原创 机器学习之决策树
对于决策树的某个结点来说,对样本进行分类后可以使样本集尽可能有序,最大程度地降低样本数据的熵。决策树的关键是如何选择最优特征进行节点划分,目标是让划分后的子集尽可能 “纯净”(即同一子集内的数据类别尽量一致)。—— 通过对数据特征的层层判断,将复杂问题拆解为一系列简单的二元或多元判断,最终得出结论。对信息增益做了归一化修正,引入 “分裂信息”(衡量特征取值的均匀程度)。基于基尼不纯度(衡量数据被分错的概率,基尼系数越小,数据越纯净)。基于信息熵(衡量数据的混乱程度,熵越大,数据越混乱)。
2026-01-01 18:20:19
660
原创 机器学习之knn算法实现约会网站
我们很容易发现,当计算样本之间的距离时数字差值最大的属性对计算结果的影响最大,也就是说,每年获取的飞行常客里程数对于计算结果的影响将远远大于上表中其他两个特征-玩视频游戏所耗时间占比和每周消费冰淇淋公斤数的影响。现需要实现将一个待分类样本的三个特征值输入程序后,能够识别该样本的类别,并且将该类别输出。该网站现在需要尽可能向海伦推荐她喜欢的人,需要我们设计一个分类器,根据用户的以上三种特征,识别出是否该向海伦推荐。其中输入数据应包含三个值,输出应为喜欢,一般,不喜欢,三个中的一个。四、K近邻算法的一般流程。
2025-12-25 20:10:37
332
原创 安装anaconda并配置环境
这里有windos,Linux,Mac0SX三种版本,按版本数和年份继续分类。这里选择Windows2025版本,点击下载。3.然后“新建”,找到已安装好的anaconda文件包,将这三个文件路径复制后放入。3.选择合适的安装位置,一般默认装在C盘,如果需要更改,点击Browse选择。4.验证,打开cmd,输入“conda”,结果如图则成功。2.开始配置环境,打开控制面板,找到“环境变量”并点击。路径没问题后点击Install进行安装,继续等待即可。1.打开cmd,输入“conda”,如图,环境未配置。
2025-10-29 21:26:18
351
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅