机器学习
文章平均质量分 91
python
Angostura886
这个作者很懒,什么都没留下…
展开
-
决策树(Decision Tree)
划分过程中,每次选择Gini指数最小的特征进行划分,并将数据集按照该特征的取值分为两部分。3. 根据切分标准将数据集分割为两个子集:根据最佳切分特征和切分点,将数据集划分为两个子集,一个子集包含满足切分标准的样本,另一个子集包含不满足切分标准的样本。2. 选择最佳切分特征:根据某种指标(如信息增益、基尼系数等),计算每个特征的切分点,选择最佳的特征和切分点作为当前节点的切分标准。以上是常见的决策树构建方法,不同的算法在属性选择和剪枝策略上有所差异,选择适合问题需求的方法可以提高决策树的性能和准确度。原创 2023-07-22 08:20:06 · 800 阅读 · 0 评论 -
K近邻(K-Nearest Neighbors,简称KNN)算法
② 对于每个子集,使用其余的k-1个子集作为训练集来训练模型,然后使用该子集作为验证集来评估模型的性能。①将原始数据集分成k个大小相等的子集(折),其中k-1个子集作为训练集,剩下的1个子集作为验证集。k折交叉验证是一种常用的模型评估方法,可以帮助选择合适的模型和调优模型的参数,提高模型的泛化能力。② 可能引入一定的方差:由于每次划分的训练集和验证集不同,模型的性能评估结果可能存在一定的方差。① 更准确的模型评估:通过对数据集进行多次划分和验证,可以更准确地评估模型的性能和泛化能力。原创 2023-07-17 10:00:05 · 401 阅读 · 0 评论