机器学习实践 学习总结

1、KNN (K近邻)VS 决策树 分类算法

k近邻算法可以完成很多分类任务,但是它最大的缺点就是无法给出数据的内在含义。它是通过计算点位间的距离来决定相似度的,其执行效率不高,存储空间和计算时间比较长。

决策树的主要优势就在于数据形式非常容易理解。相似例子:二十个问题游戏,参与者在脑海里想出一种事物,其他参与者向他提问,只允许体20个问题,问题的答案也只能回答是或者否。问问题的人通过推断分解,逐步缩小待猜测事物的范围。

优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据。

缺点:可能会产生过度拟合问题

适用数据类型:数值型和标称型。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值