基于 Java 机器学习自学笔记 (第60天:过去十日的总结)

这篇博客是作者50天Java机器学习自学的扩充笔记,重点探讨了机器学习中的知识输出、不确定性、KNN与KMeans的区别、Leave-one-out策略、距离公式等内容。作者通过扮演知识输出者的角色,加深了对算法的理解,并指出机器学习的不确定性,如KNN的测试不稳定性。此外,对比了KNN与KMeans的差异,讨论了测试与训练数据的随机分割重要性,以及错误代码可能导致的高识别率现象。博客还整理了欧氏距离和曼哈顿距离等距离公式,强调了随机分割数据的重要性。
摘要由CSDN通过智能技术生成

注意:本篇为50天后的Java自学笔记扩充,内容不再是基础数据结构内容而是机器学习中的各种经典算法。这部分博客更侧重于笔记以方便自己的理解,自我知识的输出明显减少,若有错误欢迎指正!


目录

1.尝试作为知识的输出者

2.机器学习的不确定性

3.关于KNN与KMeans的差异

4.关于Leave-one-out的一些思考

5.关于常用的距离公式整理

5.1 欧氏距离

5.2 曼哈顿距离

6.其余高维距离距离

7.测试与训练的分割应当采用随机数组分割

8.要去怀疑

9.“ 错误的代码 ”反而更高的识别率?

10.机器学习总是让人摸不着头脑


昨日又双叒叕是毕业各种琐事打乱了昨天的正常更新,整理整理心绪,今天对于过去十日完成的内容做一次小总结,同时也对一些错误进行分析。

1.尝试作为知识的输出者

首先,过去10日内容是自己作为机器学习小白,通过模仿老师的代码一步步学习机器学习的内容进行完善得到。相比于1~50天内容的几乎纯粹的知识输出,我本希望的是写得更像笔记一些,但是写着写着就感觉内容渐渐偏向一种理解阐述,就是把自己听到的东西试着作为输出方输出出来。

这样无疑非常花费时间,但是这个过程中我对于这个知识的理解似乎渐渐变得更加明了。例如过去几日的NB算法,说起来好笑,我在写博客的时候其实还不是很明白算法的过程,但是通过一边跟着老师的公式推导一边自己推导,渐渐理解NB的一些思想了,同时写出来的东西不完全类似于老师

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值