0415学习笔记:使用k近邻算法改进约会网站配对结果

1.准备数据:从文本文件中解析数据

def file2matrix(filename): #输入:文本文件名字符串;输出:训练样本矩阵和类标签向量
    fr = open(filename)
    arrayOlines = fr.readlines()
    numberOfLines = len(arrayOlines) #得文件行数
    returnMat = zeros((numberOfLines,3)) #创建以0填充的Numpy矩阵
    classLabelVector = []
    index = 0
    for line in arrayOlines: #解析文件数据到列表
        line = line.strip() #删除回车字符
        listFromLine = line.split('\t')#用tab字符将上一步得到的整行数据分割成元素列表
        returnMat[index,:] = listFromLine[0:3]
        classLabelVector.append(int(listFromLine[-1]))#将列表最后一列存到里面
        index += 1
    return returnMat,classLabelVector
import sys
sys.path.append('/home/yang/Software/pycharm-community-2017.3.4/bin/桌面/PycharmProjects/untitled/k18') 
import kNN
reload(kNN)
datingDataMat,datingLabels = kNN.file2matrix(r'/home/yang/Software/pycharm-community-2017.3.4/bin/桌面/PycharmProjects/untitled/k18/datingTestSet2.txt'

检查数据内容:

datingDataMat

2.分析数据:使用Matplotlib创建散点图

import matplotlib
import matplotlib.pyplot as plt
fig = plt.figure() #建立图纸
ax = fig.add_subplot(111)
ax.scatter(datingDataMat[:,1],datingDataMat[:,2])
plt.show()

画出的图没有记号 不好观察。改上面的一句为:

from numpy import *       #这一步是关键  
ax.scatter(datingDataMat[:,1],datingDataMat[:,2],15.0*array(datingLabels),15.0*array(datingLabels)) 

仍不能容易的得出结论,无法区分

(我们利用颜色尺寸标识了数据点的属性类别,因而我们基本上可以从上图上看到数据点所属三个样本分类。上图使用的矩阵属性列0个1展示数据,虽然可以区别,但是区分度不高。

    下面我们使用每年赢得的飞行常客里程数与玩视频游戏所占百分比的约会数据散点图,约会数据有三个特征,通过下图的展示的两个特征更容易区分数据点从属的类别)

尝试采用列1 2的属性值得出结果:

3.准备数据:归一化数值

处理不同取值范围的特征值,需要归一化

如将取值范围处理为0~1之间:

newValue = (oldValue-min)/(max-min)

其中,max和min分别代表数据集中的最大特征值和最小特征值。虽然改变数值取值范围增加了分类器的复杂度,但为了得到准确结果,我们必须这样做。我们需要在文件kNN.py中增加了一个新函数autopNorm(),该函数可以将数字特征值转换为0-1区间。autoNorm()的代码如下:

def autoNorm(dataSet): # 归一化特征值
    minVals = dataSet.min(0) #每列的最小值,0表示列,1x3
    maxVals = dataSet.max(0)
    ranges = maxVals - minVals # 1x3
    normDataSet = zeros(shape(dataSet))
    m = dataSet.shape[0] #dataSet行数
    normDataSet = dataSet - tile(minVals, (m,1)) #将最小值向量复制,与dataDet同维数
    normDataSet = normDataSet/tile(ranges, (m,1)) #具体特征值相除。矩阵除法:linalg。solve(matA,matB)
    return normDataSet, ranges, minVals

测试:

reload(kNN)
Out[43]: <module 'kNN' from '/home/yang/Software/pycharm-community-2017.3.4/bin/桌面/PycharmProjects/untitled/k18/kNN.py'>
normMat, ranges, minVals = kNN.autoNorm(datingDataMat)
normMat
Out[45]: 
array([[ 0.44832535,  0.39805139,  0.56233353],
       [ 0.15873259,  0.34195467,  0.98724416],
       [ 0.28542943,  0.06892523,  0.47449629],
       ..., 
       [ 0.29115949,  0.50910294,  0.51079493],
       [ 0.52711097,  0.43665451,  0.4290048 ],
       [ 0.47940793,  0.3768091 ,  0.78571804]])
ranges
Out[46]: array([  9.12730000e+04,   2.09193490e+01,   1.69436100e+00])
minVals
Out[47]: array([ 0.      ,  0.      ,  0.001156])

4.测试算法:作为完整程序验证分类器

def datingClassTest():#测试分类器效果函数 自包含函数
    hoRatio = 0.1
    datingDataMat, datingLabels = file2matrix(r'/home/yang/Software/pycharm-community-2017.3.4/bin/桌面/PycharmProjects/untitled/k18/datingTestSet2.txt') #提取数据
    normMat, ranges, minVals, = autoNorm(datingDataMat) #归一化特征值
    m = normMat.shape[0] #计算测试向量和训练样本的数量
    numTestVecs = int(m*hoRatio) #测试向量的数量 10%
    errorCount = 0.0 #计数器
    for i in range(numTestVecs):
        classifierResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],\
                                     datingLabels[numTestVecs:m],3) #inX, dataSet, labels, k)
        print('the classifier came back with:%d,the real answer is:%d'\
              %(classifierResult,datingLabels[i]))
        if (classifierResult != datingLabels[i]):
            errorCount += 1.0
            print("the total error rate is :%f"%(errorCount/float(numTestVecs))) #计算错误率
结果:

the total error rate is :0.050000

5.使用算法:构建完整可用系统

def classifyPerson():
    resultList = ['not at all','in small doses','in large doses']
    percentTats = float(raw_input("percentage of time spent playing video games?"))
    ffMiles = float(raw_input("frequent flier miles earned per year?"))
    iceCream = float(raw_input("liters of ice cream consumed per year?"))
    datingDataMat, datingLabels = file2matrix(r'/home/yang/Software/pycharm-community-2017.3.4/bin/桌面/PycharmProjects/untitled/k18/datingTestSet2.txt')  # 提取数据
    normMat, ranges, minVals, = autoNorm(datingDataMat)
    inArr = array([ffMiles, percentTats, iceCream])
    classifierResult = classify0((inArr-minVals)/ranges, normMat,datingLabels, 3)
    print("you will probably like this person:",resultList[classifierResult - 1])

raw_input()是 让用户输入文本行命令并返回用户所输入的命令

测试:

percentage of time spent playing video games?>? 10
frequent flier miles earned per year?>? 10000
liters of ice cream consumed per year?>? 0.5
('you will probably like this person:', 'in small doses')

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Prioritized Replay 是 Deep Q-Network (DQN) 中的一种重要改进算法。在传统的 DQN 算法中,模型训练是基于经验回放技术的。简单来说,就是将之前的一些观察和动作的经验随机地从经验池中抽取出来进行训练。但是,这种随机抽样并没有考虑到每个经验的重要性。有些经验虽然出现的次数很少,但是对模型的训练影响很大。因此,如果我们能够对经验进行优先级的排序,就能够更加有效地训练模型。 在 Prioritized Replay 算法中,我们使用了一个优先级队列来对经验进行排序。每个经验的优先级是根据其对模型训练的贡献来计算的。具体来说,每个经验的优先级为: $P_i = |\delta_i| + \epsilon$ 其中 $|\delta_i|$ 表示当前状态下真实 Q 值与估计 Q 值之差的绝对值,$\epsilon$ 是一个很小的常数,避免了某些经验的优先级为 0。这个公式的意思是,我们更倾向于选择那些真实 Q 值与估计 Q 值之差较大的经验进行训练。 在进行经验回放时,我们根据经验的优先级从优先级队列中抽取出经验。我们还需要一个重要的参数 $\alpha$,它表示优先级的重要程度。在优先级队列中,每个经验的优先级 $P_i$ 都会被赋予一个权重 $w_i$,它表示该经验在训练中的重要性。这个权重的计算公式为: $w_i = (\frac{1}{N} \frac{1}{P_i})^{\alpha}$ 其中 $N$ 是经验池中经验的总数,$\alpha$ 是一个超参数,控制优先级的重要程度。这个公式的意思是,优先级较高的经验在训练中得到的权重也较高,从而更加有效地更新模型。 需要注意的是,在 Prioritized Replay 算法中,我们对经验进行了优先级排序,但是这并不意味着我们只选择优先级高的经验进行训练。为了保证训练的稳定性,我们还需要引入一个随机因素,以一定的概率从优先级较低的经验中进行抽样。 总之,Prioritized Replay 算法通过对经验进行优先级排序,从而更加有效地训练模型。它是 DQN 算法的一个重要改进,被广泛地应用于深度强化学习领域。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值