![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
爱玩的小白龙
这个作者很懒,什么都没留下…
展开
-
机器学习笔记
第二次学习 K近邻算法 1.引言 机器学习流程:数据收集->数据处理->特征工程->机器学习->模型评估 机器学习工具:scikit-learn KNN算法原理: 1)计算测试数据与各个训练数据间的距离 2)按距离递增排序 3)选取最近的K个点 4)统计K个点所在类别的比率 5)K个点中占比最大的类别作为预测分类 优点: 1.简单有效 2.重新训练代价低 3.适合类域交叉样本 4.适合大样本自动分类 缺点: 1.惰性学习 2.类别评分不规格化原创 2021-09-24 21:07:24 · 71 阅读 · 0 评论 -
机器学习基础
第一次学习 k近邻算法总结 优点: 1.简单有效 2.重新训练代价低 3.适合类域交叉样本 4.适合大样本自动分类 缺点: 1.惰性学习 2.类别评分不规格化 3.输出可解释性不强 4.不均衡样本不擅长 样本不均衡:收集到的数据每个类别占比严重失衡(解决方法:重新采集样本) 5.计算量较大 交叉验证与网格搜索 1.交叉验证 1.1定义:将数据分为训练和验证集,如下图所 示为4折交叉验证,分成几份就几折。 2.分割方式: 训练集:训练集+验证集 测试集:测试集 3.作用: 交叉验证并不可以提高整体准确原创 2021-09-24 15:20:51 · 56 阅读 · 0 评论