分类的算法KNN:物以类聚,人以群分
KNN是通过测量不同特征值之间的距离进行分类。
思路是:如果一个样本在特征空间中的k个最邻近的样本中的大多数属于某一个类别,则该样本也划分为这个类别。
即:从训练集中找到和新数据最接近的k条记录,然后根据他们的主要分类来决定新数据的类别。该算法涉及3个主要因素:训练集、距离或相似的衡量、k的大小。
import csv
import random
# 读取
with open('./data/Prostate_Cancer.csv','r') as file:
reader = csv.DictReader(file) #以字典的形式读取文件
datas = [row for row in reader]
# 分组:2/3训练集 1/3测试集
random.shuffle(datas) #所有元素随机排序,相当于洗牌
n = len(datas)//3
test_set = datas[0:n]
train_set = datas[n:]
# KNN的操作
# 距离
def distance(d1,d2):
res = 0
for key in ('radius','texture','perimeter','area','smoothness','compactness','symmetry','fractal_dimension'):
res += (float(d1[key]) - float(d2[key]))**2
return res**0.5
K = 5 #算法结果的准确性跟K值和距离的计算方式有很大关系,实际中需要不断调整来获取更高的准确率
def knn(data):
# 1.距离
res = [
{"result":train['diagnosis_result'],"distance":distance(data,train)}
for train in train_set
]
# 2.排序---升序
res = sorted(res,key=lambda item:item['distance'])
# 3.取前K个
res2=res[0:K]
# 4.加权平均 #应该是距离越小,权重越大
result = {'B':0,'M':0}
#总距离
sum = 0
for r in res2:
sum += r['distance']
#计算权重
for r in res2:
result[r['result']] += 1-r['distance']/sum # 1-r['distance']/sum 就是权重 r['result']表明是给B加权,还是给M加权
if result['B'] > result['M']:
return 'B'
else:
return 'M'
#测试阶段
correct = 0
for test in test_set:
result = test['diagnosis_result']
result2 = knn(test)
if result == result2:
correct += 1
print('测试集的总条数有%d个' % len(test_set))
print('预测正确的结果有%d个' % correct)
print('准确率:{:.2f}%'.format(100*correct/len(test_set)))
代码来源:
【智源学院】30分钟KNN算法-有意思专题系列(K-Nearest Neighbor, KNN)
https://www.bilibili.com/video/av38115160?t=2210