深度学习——KNN算法学习笔记

一、介绍及原理

        K近邻(K-Nearest Neighbor, KNN)是一种最经典和最简单的有监督学习方法之一。K-近邻算法是最简单的分类器,没有显式的学习过程或训练过程。

        如果要判断某个数据的类型,我们可以将已知数据与要判断数据之间进行计算,列出二者之间的距离,选取K个距离最近的值,判断哪一类别的数量多,就将要判断数据定为哪种数据。(K的取值不同,判断结果不同,)

        当K过小时,容易受个别值影响,当K较大时,判断结果模糊。 

二、计算过程

        1.计算距离

                通过两点间距离公式之间进行计算

# 计算对应的距离
def distance(x, y):
    res = 0
    for k in ("radius","texture","perimeter","area","smoothness","compactness","symmetry","fractal_dimension"):
        res += (float(x[k]) - float(y[k]))**2
    return res ** 0.5


# 1. 计算距离
    res = [
        {"result":train["diagnosis_result"],"distance":distance(data,train)}
        for train in train_data
    ]

        2.排序

                将所有结果进行升序排列

 # 2. 排序
    sorted(res,key=lambda x:x["distance"])
    # print(res)

         3.取值

                取前K个

    # 3. 取前K个
    res2 = res[0:K]

        4.判断

                进行加权计算,看哪一类别多,进行类别划分

 # 4. 加权平均
    result = {"B":0,"M":0}
    # 4.1 总距离
    sum = 0
    for r in res2:
        sum += r["distance"]
    # 4.2 计算权重
    for r in res2 :
        result[r['result']] += 1-r["distance"]/sum
    
    # 4.3 得出结果
    if result['B'] > result['M']:
        return "B"
    else:
        return "M"

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值