数据挖掘,又译为数据采矿,是指从大量的数据中通过算法搜索隐藏于其中信息的过程。本篇内容主要向大家讲述如何使用KNN算法进行数据分类和数据预测。
数据挖掘专题:分类与预测
导语:数据挖掘,又译为数据采矿,是指从大量的数据中通过算法搜索隐藏于其中信息的过程。本篇内容主要向大家讲述如何使用KNN算法进行数据分类和数据预测。
基础概念
数据分类就是相同内容、相同性质的信息以及要求统一管理的信息集合在一起,而把相异的和需要分别管理的信息区分开来,然后确定各个集合之间的关系,形成一个有条理的分类系统。
举个最简单的例子:我们定义K线为三类:“上涨”:涨幅超过1%,“下跌”:跌幅超过1%,“震荡”涨跌幅不超过1%,获取沪深300指数过去250个交易日的K线,将数据进行分类:
In [2]:
p=get_price('000300.SH', None, '20180125', '1d', ['quote_rate'], True, None, 250, is_panel=1)
n1=len(p[p['quote_rate']>1])
n2=len(p[p['quote_rate']<-1])
n3=len(p)-n1-n2
print('上涨K线:{},下跌K线:{},震荡K线:{}'.format(n1,n2,n3))
上涨K线:18,下跌K线:12,震荡K线:220
数据预测即用数据分类得出的模型对未知变量的预言。预言其目的是对未来未知变量的预测。
假设我们用历史数据发现上涨股票平均比例,所有个股平均量比,这二个指标可以用来定义当天市场是上涨、下跌还是震荡。其特征如下:
市场 | 上涨股票平均比例均值 | 所有个股平均量化均值 |
---|---|---|
上涨(沪深300涨幅超过1%) | 60% | 1.2 |
下跌(沪深300跌幅超过1%) | 40% | 0.8 |
震荡(沪深300涨跌幅不超过1%) | 50% | 1 |
详细数据分布如下:
In [4]:
import matplotlib.pyplot as plt
fig_size = plt.rcParams["figure.figsize"]
fig_size[0] = 15
fig_size[1] = 10
x1 = np.random.uniform(0.5, 0.7 ,200)
y1 = np.random.uniform(1.4, 1, 200)
plt.scatter(x1,y1,c='b',marker='s',s=50,alpha=0.8)
x2 = np.random.uniform(0.3,0.5,200)
y2 = np.random.uniform(0.6,1,200)
plt.scatter(x2,y2,c='r', marker='^', s=50, alpha=0.8)
x3 = np.random.uniform(0.4,0.6,200)
y3 = np.random.uniform(0.8, 1.2, 200)
plt.scatter(x3,y3, c='g', s=50, alpha=0.8)
Out[4]:
<matplotlib.collections.PathCollection at 0x7fc0d7a4d908>
在我们完成分类模型后的下一个交易日,只给你们二个指标的具体数值:上涨股票比例为55%,所有个股平均量比1。请问当天的沪深300指数是上涨、下跌还是震荡?
KNN算法
我们需要解决上述分类和预测的问题,就需要依赖于数据挖掘的算法,本篇文章主要介绍KNN算法,一个常用又简单的数据分类和预测算法。
KNN算法核心函数:neighbors.KNeighborsClassifier(n_neighbors=5, weights=’uniform’, algorithm=’auto’, leaf_size=30, p=2, metric=’minkowski’, metric_params=None, n-jobs=1)
函数内n_neighbors参数是做分类时选取参考的数据量,默认为5个。其余参数选取为默认,课外自行了解原理。
开始之前,我们先导入KNN算法模块
In [20]:
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn import neighbors
回到之前的详细数据分布
In [61]:
fig_size = plt.rcParams["figure.figsize"]
fig_size[0] = 15
fig_size[1] = 10
x1 = np.random.uniform(0.5, 0.7 ,200)
y1 = np.random.uniform(1.4, 1, 200)
plt.scatter(x1,y1,c='b',marker='s',s=50,alpha=0.8)
x2 = np.random.uniform(0.3,0.5,200)
y2 = np.random.uniform(0.6,1,200)
plt.scatter(x2,y2,c='r', marker='^', s=50, alpha=0.8)
x3 = np.random.uniform(0.4,0.6,200)
y3 = np.random.uniform(0.8, 1.2, 200)
plt.scatter(x3,y3, c='g', s=50, alpha=0.8)
Out[61]:
<matplotlib.collections.PathCollection at 0x7fc0700275c0>
在创建了一个 KNeighborsClassifier 类之后,需要给它数据来进行学习并分类。需要使用 fit() 拟合功能:neighbors.KNeighborsClassifier.fit(X,y)
X 是一个 list 或 array 的数据,每一组数据可以是 tuple 也可以是 list 或者一维 array,但要注意所有数据的长度必须一样。当然,也可以把 X 理解为一个矩阵,其中每一横行是一个样本的特征数据。
y 是一个和 X 长度相同的 list 或 array,其中每个元素是 X 中相对应的数据的分类标签。
KNeighborsClassifier 类在对训练数据执行 fit()后会根据函数内的algorithm参数,依据训练数据生成一个 kd_tree 或者 ball_tree。
其中第一类是上涨,第二类是下跌,第三类是震荡。
In [62]:
x_val = np.concatenate((x1,x2,x3))
y_val = np.concatenate((y1,y2,y3))
x_diff = max(x_val)-min(x_val)
y_diff = max(y_val)-min(y_val)
x_normalized = x_val/x_diff
y_normalized = y_val/y_diff
xy_normalized = list(zip(x_normalized,y_normalized))
labels = [1]*200+[2]*200+[3]*200
clf = neighbors.KNeighborsClassifier(30)
clf.fit(xy_normalized, labels)
Out[62]:
KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',
metric_params=None, n_jobs=1, n_neighbors=30, p=2,
weights='uniform')
注意:在分类时,我们对数据进行了标准化,主要是使得X轴和Y轴的数据间隔具有可比性,比如我们的上涨股票比例恒小于等于1,而量比甚至可能大于2,这样的话两个坐标轴没有可比性,间距不一致,因此我们需要进行标准化。
具体标准化公式:最终值=初始值/(最大值-最小值)
至此我们完成了数据分类。
让我们来尝试数据预测!
1.近邻数据获取
我们尝试来获取(0.55,1)这个数据点周围的10个数据点
In [63]:
nearests = clf.kneighbors([(0.55/x_diff, 1/y_diff)], 10, False)
nearests
Out[63]:
array([[565, 551, 557, 506, 174, 474, 503, 58, 401, 561]])
结果显示为第[565, 551, 557, 506, 174, 474, 503, 58, 401, 561]个数据点
2.数据预测:
继续回答上述问题:上涨股票比例为55%,所有个股平均量比1。请问当天的沪深300指数是上涨、下跌还是震荡。
In [64]:
prediction = clf.predict([(0.55/x_diff, 1/y_diff)])
prediction
Out[64]:
array([3])
结果显示,该天沪深300指数属于第三类,震荡。
3.数据预测概率
In [65]:
prediction_proba = clf.predict_proba([(0.55/x_diff, 1/y_diff)])
prediction_proba
Out[65]:
array([[ 0.33333333, 0. , 0.66666667]])
结果显示,(0.55,1)属于第一和第三类的概率分别为33.33%与66.67%。
我们再来试试(0.9,1.2)预测概率
In [66]:
prediction_proba = clf.predict_proba([(0.9/x_diff, 1.2/y_diff)])
prediction_proba
Out[66]:
array([[ 1., 0., 0.]])
结果显示,(0.9,1.2)属于第一类的概率为100%。
4.KNN算法学习准确性打分
我们将上述数据分类2组,一组用于KNN学习,一组用于测试。
In [67]:
#构建测试组
x1_test = np.random.uniform(0.5, 0.7 ,100)
y1_test = np.random.uniform(1.4, 1, 100)
x2_test = np.random.uniform(0.3,0.5,100)
y2_test = np.random.uniform(0.6,1,100)
x3_test = np.random.uniform(0.4,0.6,100)
y3_test = np.random.uniform(0.8, 1.2, 100)
xy_test_normalized = list(zip(np.concatenate((x1_test,x2_test,x3_test))/x_diff,np.concatenate((y1_test,y2_test,y3_test))/y_diff))
labels_test = [1]*100+[2]*100+[3]*100
In [68]:
#测试组打分
score = clf.score(xy_test_normalized, labels_test)
score
Out[68]:
0.85333333333333339
In [69]:
#修改n_neighbors参数,继续观察
clf1 = neighbors.KNeighborsClassifier(1)
clf1.fit(xy_normalized, labels)
clf1.score(xy_test_normalized, labels_test)
Out[69]:
0.81333333333333335
结果显示,该模型的学习准确性达到85%左右,参考数据量的参数改变并未导致准确度出现大幅变化,因此较为稳定。
查看以上策略详细请 到 supermind量化交易官网查看:数据处理专题2--分类与预测