1 简介

提出一种基于哈里斯鹰优化算法(HHO)和支持向量机(SVM)的股价预测方法.针对SVM预测模型参数难以确定的问题,采用HHO算法对SVM中惩罚因子及核函数参数进行优化,构建HHOSVM股价预测模型。

支持向量机是利用已知数据类别的样本为训练样本,寻找同类数据的空间聚集特征,从而对测试样本进行分类验证,通过验证可将分类错误的数据进行更正。本文以体检数据为数据背景,首先通过利用因子分析将高维数据进行降维,由此将所有指标整合成几个综合性指标;为降低指标之间的衡量标准所引起的误差,本文利用 MATLAB软件将数据进行归一化处理,结合聚类分析将数据分类;最后本文利用最小二乘支持向量机分类算法进行分类验证,从而计算出数据分类的准确率,并验证了数据分类的准确性和合理性。

【SVM分类】基于哈里斯鹰算法优化支持向量机SVM实现分类附matlab的代码_数据

【SVM分类】基于哈里斯鹰算法优化支持向量机SVM实现分类附matlab的代码_数据_02

2 部分代码


          
          
function [sFeat,Sf,Nf,curve] = jBHHO(feat,label,N,max_Iter,HO)
beta = 1.5;
ub = 1;
lb = 0;
fun = @jFitnessFunction;
dim = size(feat,2);
X = zeros(N,dim);
for i = 1:N
for d = 1:dim
if rand() > 0.5
X(i,d) = 1;
end
end
end
fitR = inf;
fit = zeros(1,N);
Y = zeros(1,dim);
Z = zeros(1,dim);
curve = inf;
t = 1;
%---Iteration start-------------------------------------------------
while t <= max_Iter
for i = 1:N
fit(i) = fun(feat,label,X(i,:),HO);
if fit(i) < fitR
fitR = fit(i);
Xrb = X(i,:);
end
end
X_mu = mean(X,1);
for i = 1:N
E0 = -1 + 2 * rand();
E = 2 * E0 * (1 - (t / max_Iter));
if abs(E) >= 1
q = rand();
if q >= 0.5
k = randi([1,N]);
r1 = rand();
r2 = rand();
for d = 1:dim
Xn = X(k,d) - r1 * abs(X(k,d) - 2 * r2 * X(i,d));
S = 1 / (1 + exp(-Xn));
if rand() < S
X(i,d)= 1;
else
X(i,d) = 0;
end
end
elseif q < 0.5
r3 = rand();
r4 = rand();
for d = 1:dim
Xn = (Xrb(d) - X_mu(d)) - r3 * (lb + r4 * (ub - lb));
S = 1 / (1 + exp(-Xn));
if rand() < S
X(i,d) = 1;
else
X(i,d) = 0;
end
end
end
elseif abs(E) < 1
J = 2 * (1 - rand());
r = rand();
if r >= 0.5 && abs(E) >= 0.5
for d = 1:dim
DX = Xrb(d) - X(i,d);
Xn = DX - E * abs(J * Xrb(d) - X(i,d));
S = 1 / (1 + exp(-Xn));
if rand() < S
X(i,d) = 1;
else
X(i,d) = 0;
end
end
elseif r >= 0.5 && abs(E) < 0.5
for d = 1:dim
DX = Xrb(d) - X(i,d);
Xn = Xrb(d) - E * abs(DX);
S = 1 / (1 + exp(-Xn));
if rand() < S
X(i,d) = 1;
else
X(i,d) = 0;
end
end
elseif r < 0.5 && abs(E) >= 0.5
LF = jLevyDistribution(beta,dim);
for d = 1:dim
Yn = Xrb(d) - E * abs(J * Xrb(d) - X(i,d));
S = 1 / (1 + exp(-Yn));
if rand() < S
Y(d) = 1;
else
Y(d) = 0;
end
Zn = Y(d) + rand() * LF(d);
S = 1 / (1 + exp(-Zn));
if rand() < S
Z(d) = 1;
else
Z(d) = 0;
end
end
fitY = fun(feat,label,Y,HO);
fitZ = fun(feat,label,Z,HO);
if fitY <= fit(i)
fit(i) = fitY;
X(i,:) = Y;
end
if fitZ <= fit(i)
fit(i) = fitZ;
X(i,:) = Z;
end
elseif r < 0.5 && abs(E) < 0.5
LF = jLevyDistribution(beta,dim);
for d = 1:dim
Yn = Xrb(d) - E * abs(J * Xrb(d) - X_mu(d));
S = 1 / (1 + exp(-Yn));
if rand() < S
Y(d) = 1;
else
Y(d) = 0;
end
Zn = Y(d) + rand() * LF(d);
S = 1 / (1 + exp(-Zn));
if rand() < S
Z(d) = 1;
else
Z(d) = 0;
end
end
fitY = fun(feat,label,Y,HO);
fitZ = fun(feat,label,Z,HO);
if fitY <= fit(i)
fit(i) = fitY;
X(i,:) = Y;
end
if fitZ <= fit(i)
fit(i) = fitZ;
X(i,:) = Z;
end
end
end
end
curve(t) = fitR;
fprintf('\nIteration %d Best (BHHO)= %f',t,curve(t))
t = t + 1;
end
Pos = 1:dim;
Sf = Pos(Xrb == 1);
Nf = length(Sf);
sFeat = feat(:,Sf);
end
function LF = jLevyDistribution(beta,dim)
nume = gamma(1 + beta) * sin(pi * beta / 2);
deno = gamma((1 + beta) / 2) * beta * 2 ^ ((beta - 1) / 2);
sigma = (nume / deno) ^ (1 / beta);
u = randn(1,dim) * sigma;
v = randn(1,dim);
step = u ./ abs(v) .^ (1 / beta);
LF = 0.01 * step;
end
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.
  • 28.
  • 29.
  • 30.
  • 31.
  • 32.
  • 33.
  • 34.
  • 35.
  • 36.
  • 37.
  • 38.
  • 39.
  • 40.
  • 41.
  • 42.
  • 43.
  • 44.
  • 45.
  • 46.
  • 47.
  • 48.
  • 49.
  • 50.
  • 51.
  • 52.
  • 53.
  • 54.
  • 55.
  • 56.
  • 57.
  • 58.
  • 59.
  • 60.
  • 61.
  • 62.
  • 63.
  • 64.
  • 65.
  • 66.
  • 67.
  • 68.
  • 69.
  • 70.
  • 71.
  • 72.
  • 73.
  • 74.
  • 75.
  • 76.
  • 77.
  • 78.
  • 79.
  • 80.
  • 81.
  • 82.
  • 83.
  • 84.
  • 85.
  • 86.
  • 87.
  • 88.
  • 89.
  • 90.
  • 91.
  • 92.
  • 93.
  • 94.
  • 95.
  • 96.
  • 97.
  • 98.
  • 99.
  • 100.
  • 101.
  • 102.
  • 103.
  • 104.
  • 105.
  • 106.
  • 107.
  • 108.
  • 109.
  • 110.
  • 111.
  • 112.
  • 113.
  • 114.
  • 115.
  • 116.
  • 117.
  • 118.
  • 119.
  • 120.
  • 121.
  • 122.
  • 123.
  • 124.
  • 125.
  • 126.
  • 127.
  • 128.
  • 129.
  • 130.
  • 131.
  • 132.
  • 133.
  • 134.
  • 135.
  • 136.
  • 137.
  • 138.
  • 139.
  • 140.
  • 141.
  • 142.
  • 143.
  • 144.
  • 145.
  • 146.
  • 147.
  • 148.
  • 149.
  • 150.
  • 151.
  • 152.
  • 153.
  • 154.
  • 155.
  • 156.
  • 157.
  • 158.
  • 159.
  • 160.
  • 161.
  • 162.
  • 163.

3 仿真结果

【SVM分类】基于哈里斯鹰算法优化支持向量机SVM实现分类附matlab的代码_数据_03

4 参考文献

[1]董婷. 支持向量机分类算法在MATLAB环境下的实现[J]. 榆林学院学报, 2008, 18(4):3.

博主简介:擅长智能优化算法、神经网络预测、信号处理、元胞自动机、图像处理、路径规划、无人机等多种领域的Matlab仿真,相关matlab代码问题可私信交流。

部分理论引用网络文献,若有侵权联系博主删除。

【SVM分类】基于哈里斯鹰算法优化支持向量机SVM实现分类附matlab的代码_分类算法_04