Knn | |
原理 | (1)为了判断未知实例的类别,以所有已知类别的实例作为参照 (2)选择参数K (3)计算未知实例与所有已知实例的距离 (4)选择最近K个已知实例 (5)根据少数服从多数的投票法则(majority-voting),让未知实例归类为K个最邻近样本中最多数的类别
|
过程 | (1)loadDataset:根据split 分为训练集与测试集 (2)duclideanDistance:计算距离 (3)getNeighbors:从训练集里面选出K个离测试集最近的实例,形成邻域 (4)getResponse:对邻域进行分类,并进行排序(reverse:降序) (5)main:会设定k的阈值 |
调试 | (1)IndexError: list index out of range 情况一: index下标越界,那么意思就是list本身没有那么多元素,所以我们在确定index的时候就要用len函数来进行判断一下,确定index的范围,这样就不会出现情况一了。 情况二: list本身为空,那么我们在调用list之前,就应该先判断与一下list是否为空,可以用输出打印来进行判断,或者写一个异常处理,这样就不会让程序直接kill掉,然后再在前面想办法,让我们获取的list不为空。
|
优点 | (1)简单 (2)易于理解 (3)容易实现 (4)通过对K的选择可具备丢噪音数据的健壮性
|
缺点 | (1)需要大量空间储存所有已知实例 (2)算法复杂度高(需要比较所有已知实例与要分类的实例) (3)当其样本分布不平衡时,比如其中一类样本过大(实例数量过多)占主导的时候,新的未知实例容易被归类为这个主导样本,因为这类样本实例的数量过大,但这个新的未知实例实际并木接近目标样本
|
疑惑 | Response = neighboors[x][-1] 什么意思? IndexError: list index out of range 没调试出来? |
Knn
最新推荐文章于 2024-04-04 14:07:06 发布