SVM的参数优化——遗传算法参数寻优

支持向量机(Support Vector Machine,SVM)是一种广泛应用的监督式机器学习算法。它主要用于分类任务,但也适用于回归任务。在本文中,我们将深入探讨支持向量机的两个重要参数:C和gamma。

%% 子函数 gaSVMcgForClass.m

function [BestCVaccuracy,Bestc,Bestg,ga_option] = gaSVMcgForClass(train_label,train_data,ga_option)
% gaSVMcgForClass
%
% by faruto
%Email:patrick.lee@foxmail.com QQ:516667408 http://blog.sina.com.cn/faruto BNU
%last modified 2010.01.17
%Super Moderator @ www.ilovematlab.cn

% 若转载请注明:
% faruto and liyang , LIBSVM-farutoUltimateVersion 
% a toolbox with implements for support vector machines based on libsvm, 2009. 
% Software available at http://www.ilovematlab.cn
% 
% Chih-Chung Chang and Chih-Jen Lin, LIBSVM : a library for
% support vector machines, 2001. Software available at
% http://www.csie.ntu.edu.tw/~cjlin/libsvm

% 参数初始化
if nargin == 2
    ga_option = struct('maxgen',200,'sizepop',20,'ggap',0.9,...
        'cbound',[0,100],'gbound',[0,1000],'v',5);
end
% maxgen:最大的进化代数,默认为200,一般取值范围为[100,500]
% sizepop:种群最大数量,默认为20,一般取值范围为[20,100]
% cbound = [cmin,cmax],参数c的变化范围,默认为(0,100]
% gbound = [gmin,gmax],参数g的变化范围,默认为[0,1000]
% v:SVM Cross Validation参数,默认为5

%
MAXGEN = ga_option.maxgen;
NIND = ga_option.sizepop;
NVAR = 2;
PRECI = 20;
GGAP = ga_option.ggap;
trace = zeros(MAXGEN,2);

FieldID = ...
[repmat([PRECI],[1,NVAR]);[ga_option.cbound(1),ga_option.gbound(1);ga_option.cbound(2),ga_option.gbound(2)]; ...
 [1,1;0,0;0,1;1,1]];

Chrom = crtbp(NIND,NVAR*PRECI);

gen = 1;
v = ga_option.v;
BestCVaccuracy = 0;
Bestc = 0;
Bestg = 0;
%
cg = bs2rv(Chrom,FieldID);

for nind = 1:NIND
    cmd = ['-v ',num2str(v),' -c ',num2str(cg(nind,1)),' -g ',num2str(cg(nind,2))];
    ObjV(nind,1) = svmtrain(train_label,train_data,cmd);
end
[BestCVaccuracy,I] = max(ObjV);
Bestc = cg(I,1);
Bestg = cg(I,2);

for gen = 1:MAXGEN
    FitnV = ranking(-ObjV);
    
    SelCh = select('sus',Chrom,FitnV,GGAP);
    SelCh = recombin('xovsp',SelCh,0.7);
    SelCh = mut(SelCh);
    
    cg = bs2rv(SelCh,FieldID);
    for nind = 1:size(SelCh,1)
        cmd = ['-v ',num2str(v),' -c ',num2str(cg(nind,1)),' -g ',num2str(cg(nind,2))];
        ObjVSel(nind,1) = svmtrain(train_label,train_data,cmd);
    end
    
    [Chrom,ObjV] = reins(Chrom,SelCh,1,1,ObjV,ObjVSel);
    
    if max(ObjV) <= 50
        continue;
    end
    
    [NewBestCVaccuracy,I] = max(ObjV);
    cg_temp = bs2rv(Chrom,FieldID);
    temp_NewBestCVaccuracy = NewBestCVaccuracy;
    
    if NewBestCVaccuracy > BestCVaccuracy
       BestCVaccuracy = NewBestCVaccuracy;
       Bestc = cg_temp(I,1);
       Bestg = cg_temp(I,2);
    end
    
    if abs( NewBestCVaccuracy-BestCVaccuracy ) <= 10^(-2) && ...
        cg_temp(I,1) < Bestc
       BestCVaccuracy = NewBestCVaccuracy;
       Bestc = cg_temp(I,1);
       Bestg = cg_temp(I,2);
    end    
    
    trace(gen,1) = max(ObjV);
    trace(gen,2) = sum(ObjV)/length(ObjV);
  
end
%
figure;
hold on;
trace = round(trace*10000)/10000;
plot(trace(1:gen,1),'r*-','LineWidth',1.5);
plot(trace(1:gen,2),'o-','LineWidth',1.5);
legend('最佳适应度','平均适应度','Location','SouthWest');
xlabel('进化代数','FontSize',12);
ylabel('适应度','FontSize',12);
axis([0 gen 0 100]);
grid on;
axis auto;

line1 = '适应度曲线Accuracy[GAmethod]';
line2 = ['(终止代数=', ...
    num2str(gen),',种群数量pop=', ...
    num2str(NIND),')'];
line3 = ['Best c=',num2str(Bestc),' g=',num2str(Bestg), ...
    ' CVAccuracy=',num2str(BestCVaccuracy),'%'];
title({line1;line2;line3},'FontSize',12);

%% 选择GA最佳的SVM参数c&g

% GA的参数选项初始化

ga_option.maxgen = 200;
ga_option.sizepop = 20; 
ga_option.cbound = [0,100];
ga_option.gbound = [0,100];
ga_option.v = 5;
ga_option.ggap = 0.9;
[bestacc,bestc,bestg] = gaSVMcgForClass(train_wine_labels,train_wine,ga_option);

% 打印选择结果
disp('打印选择结果');

str = sprintf( 'Best Cross Validation Accuracy = %g%% Best c = %g Best g = %g',bestacc,bestc,bestg);
disp(str);

%% 利用最佳的参数进行SVM网络训练

cmd = ['-c ',num2str(bestc),' -g ',num2str(bestg)];

 源自:《Matlab神经网络43个案例分析》。 

  • 8
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
### 回答1: 遗传算法优化SVM参数可以帮助提高SVM分类器的性能,以更好地适应现实任务。Matlab提供了丰富的工具箱和函数,可用于实现该算法。下面是使用Matlab实现遗传算法优化SVM参数的简单步骤: 1.准备数据集。要使用SVM分类器,首先需要准备一个带有标签的数据集,其中包含训练数据和测试数据。 2.编写SVM分类器的程序。Matlab中有SVM分类器的工具箱,可以使用函数fitcsvm()来训练分类器。 3.利用遗传算法优化SVM参数。首先,需要定义SVM参数的搜索范围和适应度函数。然后,可以使用Matlab中的遗传算法优化工具箱,例如ga()函数来执行优化操作。 4.编写主程序。主程序应具有以下功能:载入数据、执行SVM分类器、调用适应度函数,利用遗传算法寻找最优参数。最后,应输出最佳模型及其参数,以及相应的预测性能指标。 总之,遗传算法是一种强大的优化工具,可以在SVM分类器中找到最优的参数,从而优化分类器的性能。Matlab提供了强大的工具箱和函数,使整个过程变得更容易实现和理解。 ### 回答2: 遗传算法是一种优化算法,可以用来优化SVM模型中的参数。首先需要明确要优化哪些参数,例如SVM中的惩罚系数C、核函数参数等。然后,我们需要编写适应度函数来评估每个参数组合的性能。适应度函数可以使用交叉验证法,计算模型在训练集上的准确率或其他性能指标。 接下来,我们需要定义一个种群和每个个体的基因。一个个体可以被理解为SVM模型中的一个参数组合,而基因则是该参数组合的每个参数的取值。然后,我们可以使用遗传算法技术来生成和改进种群,以找到最优的参数组合。具体来说,我们可以使用交叉、变异等操作来产生新的个体,并选择适应度评分最高的个体进行下一轮进化。 在Matlab中,可以使用一些已经存在的遗传算法函数来实现这个过程,例如gamultiobj,ga等。通过这些函数,我们可以简单地调用遗传算法并传递相应参数:适应度函数,基因范围,种群大小等。在迭代过程中,我们可以跟踪适应度得分和参数组合,以便我们可以找到最优的参数组合。 最后,我们可以使用找到的最优参数组合来训练SVM模型,并将其应用于测试数据集。这将帮助我们仔细地调整SVM模型,以获得最佳性能,而不是依赖于默认参数值。 ### 回答3: 遗传算法是一种通过模拟生物进化过程来优化问题的方法。SVM支持向量机参数优化机器学习中重要的一个问题,通常需要通过试错的方法来找到最优参数。使用遗传算法可以有效地优化SVM参数。 在Matlab中,可以使用内置的“ga”函数来实现遗传算法优化SVM参数。以下是一些实现步骤: 1. 定义适应度函数:将SVM分类器应用于数据集,并计算分类准确性作为适应度值。这里的适应度可以是分类正确率或F1-score等指标。 2. 定义变量范围:根据优化SVM参数,例如惩罚系数(C)和核函数的参数(sigma),定义可变参数的范围。可以通过找到最小值和最大值来定义范围。 3. 设置遗传算法参数:例如种群大小、交叉率、变异率、最大迭代次数等。 4. 调用ga函数:运行遗传算法并得到最优解。将在定义的范围内搜索最佳参数,并使用适应度函数计算应用于每个解的适应度值。 下面是一个简单的代码示例: % 定义适应度函数 function accuracy = SVMfitness(params) C = params(1); sigma = params(2); model = svmtrain(train_labels, train_data, ... sprintf('-s 0 -t 2 -c %f -g %f -q', C, sigma)); [predicted_label, accuracy, decision_values] = svmpredict(... validation_labels, validation_data, model, '-q'); end % 设置变量范围 params_lb = [0.01, 0.01]; % 下限 params_ub = [1, 100]; % 上限 params_init = [0.1, 1]; % 初始值 % 设置遗传算法参数 ga_opts = gaoptimset('PopulationSize', 50, 'Generations', 100, ... 'CrossoverFraction', 0.8, 'MutationFcn', @mutationadaptfeasible); % 调用ga函数 best_params = ga(@SVMfitness, 2, [], [], [], [], params_lb, params_ub, [], ... ga_opts); 在上面的代码中,假设已经有了训练和验证数据集,分别存储在train_data、train_labels、validation_data、validation_labels中。首先定义适应度函数SVMfitness,该函数最终返回分类准确性(accuracy)作为适应度值。接着定义参数的范围,最小值和最大值分别存储在params_lb和params_ub中。然后设置遗传算法参数,并使用ga函数进行优化,最终得到最佳参数best_params。最后,通过使用最佳参数训练SVM分类器并应用于测试数据,以获取最终的分类准确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值