matlab – 使用libsvm进行交叉验证后再培训

本文探讨了如何利用交叉验证选择LIBSVM中的C和gamma参数,并解释了-v选项的作用。作者分享了10折交叉验证过程中的准确率计算,以及如何在找到最佳参数后重新训练模型。同时,讨论了交叉验证在避免过拟合中的作用和不同模型下的准确性。最后,针对一个具体例子,作者疑惑为何使用新参数训练时结果不一致,并寻求解答。
摘要由CSDN通过智能技术生成

我知道交叉验证用于选择好的参数.找到它们后,我需要重新训练整个数据,而不需要-v选项.
但是我遇到的问题是,在用-v选项训练后,我得到交叉验证的准确性(例如85%).没有模型,我看不到C和gamma的值.那怎么重新训练?

Btw我应用10折交叉验证.
例如

optimization finished, #iter = 138
nu = 0.612233
obj = -90.291046, rho = -0.367013
nSV = 165, nBSV = 128
Total nSV = 165
Cross Validation Accuracy = 98.1273%

需要一些帮助

要获得最好的C和gamma,我使用LIBSVM FAQ中提供的这个代码

bestcv = 0;
for log2c = -6:10,
  for log2g = -6:3,
    cmd = ['-v 5 -c ', num2str(2^log2c), ' -g ', num2str(2^log2g)];
    cv = svmtrain(TrainLabel,TrainVec, cmd);
    if (cv >= bestcv),
      bestcv = cv; bestc = 2^log2c; bestg = 2^log2g;
    end
    fprintf('(best c=%g, g=%g, rate=%g)\n',bestc, bestg, bestcv);
  end
end

另一个问题:使用-v选项之后的交叉验证准确度与我们在没有-v选项的情况下训练时使用相似,并使用该模型进行预测?两个准确度是否相似?

另一个问题:交叉验证基本上通过避免过度拟合来提高模型的准确性.所以,它需要有一个模型才能改善.我对吗?此外,如果我有不同的模型,那么交叉验证的准确性会有所不同?我对吗?

另一个问题:在交叉验证准确性中,C和gamma的价值是多少?

图形是这样的

那么C的值是2和gamma = 0.0078125.但是当我用新参数重新训练模型时.该值与99.63%不一样.有什么理由吗?
提前致谢…

这里的-v选项真的意在用作避免过度配对问题的方法(而不是使用整个数据进行训练,对N-1折叠进行N-fold交叉验证训练,并对剩余的折叠进行测试)一个一个,然后报告平均精度).因此,它仅返回交叉验证精度(假设您有一个分类问题,否则是回归的均方误差)作为标量数而不是实际的SVM模型.
如果要执行模型选择,则必须使用交叉验证(类似于grid.py帮助器python脚本)实现网格搜索,以找到C和gamma的最佳值.

这不应该很难实现:使用MESHGRID创建一个值的网格,迭代整个所有对(C,γ)训练具有5倍交叉验证的SVM模型,并选择具有最佳CV精度的值. …

例:

%# read some training data
[labels,data] = libsvmread('./heart_scale');

%# grid of parameters
folds = 5;
[C,gamma] = meshgrid(-5:2:15, -15:2:3);

%# grid search, and cross-validation
cv_acc = zeros(numel(C),1);
for i=1:numel(C)
    cv_acc(i) = svmtrain(labels, data, ...
                    sprintf('-c %f -g %f -v %d', 2^C(i), 2^gamma(i), folds));
end

%# pair (C,gamma) with best accuracy
[~,idx] = max(cv_acc);

%# contour plot of paramter selection
contour(C, gamma, reshape(cv_acc,size(C))), colorbar
hold on
plot(C(idx), gamma(idx), 'rx')
text(C(idx), gamma(idx), sprintf('Acc = %.2f %%',cv_acc(idx)), ...
    'HorizontalAlign','left', 'VerticalAlign','top')
hold off
xlabel('log_2(C)'), ylabel('log_2(\gamma)'), title('Cross-Validation Accuracy')

%# now you can train you model using best_C and best_gamma
best_C = 2^C(idx);
best_gamma = 2^gamma(idx);
%# ...
Matlab使用LibSVM进行交叉验证的步骤如下: 1. 首先,确保你已经安装了LibSVM库,并将其添加到Matlab的工作路径中。 2. 导入数据:将你的训练数据和标签加载到Matlab中。确保数据和标签的格式符合LibSVM的要求。 3. 设置交叉验证参数:你可以选择使用Matlab的内置函数cvpartition来创建交叉验证的分割。例如,你可以使用cvpartition函数创建一个10折交叉验证对象: ```matlab cv = cvpartition(labels, 'KFold', 10); ``` 4. 运行交叉验证使用for循环迭代每个交叉验证分割,并在每个分割上训练和测试模型。在每次迭代中,你需要将训练数据输入到LibSVM的训练函数svmtrain中,并使用测试数据评估模型的性能。 ```matlab for i = 1:cv.NumTestSets trainIdx = cv.training(i); % 获取当前分割的训练集索引 testIdx = cv.test(i); % 获取当前分割的测试集索引 % 获取当前分割的训练集和测试集数据 trainData = data(trainIdx, :); trainLabels = labels(trainIdx, :); testData = data(testIdx, :); testLabels = labels(testIdx, :); % 训练模型 model = svmtrain(trainLabels, trainData, '-s 0 -t 2'); % 这里's 0 -t 2'表示使用线性核函数 % 在测试集上评估模型性能 [predictedLabels, accuracy, decisionValues] = svmpredict(testLabels, testData, model); % 在这里可以记录或分析每次交叉验证的结果 fprintf('Accuracy for fold %d: %f%%\n', i, accuracy(1)); end ``` 上述代码中,'-s 0 -t 2'选项表示使用线性核函数进行训练,你可以根据需要调整这些参数。 5. 分析结果:在每次交叉验证迭代中,你可以记录或分析准确率等性能指标。你可以计算交叉验证的平均准确率,并对不同参数和模型进行比较。 这是一个简单的使用LibSVM进行交叉验证的示例。你可以根据自己的数据和需求进行相应的修改和扩展。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值