svr代码matlab,matlab解决svr代码.docx

41528d3028836879cd698677c3999917.gifmatlab解决svr代码.docx

多元线性回归和BP神经网络及决策向量机之间的比较,个人理解:多元线性回归:就是多个属性的线性组合,在组合时,通过不断调节每个属性的权重来使多元线性回归函数更多的适用于多个样本。BP神经网络:通过使用最快速下降法,通过反向传播来不断调整网络中的权值和阈值,使网络的误差平方和最小。决策向量机:它仍是对每个样本操作,使得所有样本距离最终生成的拟合曲线的间隔最小化。算法比较:BP目标函数:权值调整:决策向量机目标函数:min1/2w^2支持向量机(Supportvectormachines,SVM)与神经网络类似,都是学习型的机制,但与神经网络不同的是SVM使用的是数学方法和优化技术。学习效率的比较:导入数据:File->importdata参数优化常用方法:[train_pca,test_pca]=pcaForSVM(train_data,test_data,97);//主元分析[bestCVmse,bestc,bestg,ga_option]=gaSVMcgForRegress(train_label,train_pca);[bestmse,bestc,bestg]=SVMcgForRegress(train_label,train_data)=[ -c ,num2str(bestc), -g ,num2str(bestg), -s3-p0.01 ];train_label=data(1:50,1);train_data=data(1:50,2:14);model=svmtrain(train_label,train_data, -s3-t2-c2.2-g2.8-p0.01 );test_label=data(51:100,1);test_data=data(51:100,2:14);[predict_label,mse,dec_value]=svmpredict(test_label,test_data,model);[bestmse,bestc,bestg]=SVMcgForRegress(train_label,train_data)=[ -c ,num2str(bestc), -g ,num2str(bestg), -s3-p0.01 ];代码整理:Part1:从核函数的角度出发,当选取不同核函数类型时,模型的效率是否有所提高mpjjdyJ12)(21kijkijwJ1.核函数为RBF核函数时:优化前:train_label=data(1:50,1);train_data=data(1:50,2:14);model=svmtrain(train_label,train_data, -s3-t2-c2.2-g2.8-p0.01 );[predict_label,mse,dec_value]=svmpredict(train_label,train_data,model);%上一行利用自身的值和预测值进行比较,求得模型实际结果和预测结果的均方值test_label=data(51:100,1);test_data=data(51:100,2:14);[predict_label,mse,dec_value]=svmpredict(test_label,test_data,model);优化后:train_label=data(1:50,1);train_data=data(1:50,2:14);[bestmse,bestc,bestg]=SVMcgForRegress(train_label,train_data)%优化方法暂定为网格寻优=[ -c ,num2str(bestc), -g ,num2str(bestg), -s3–t2-p0.01 ];model=svmtrain(train_label,train_data,);[ptrain,mse,dec_value]=svmpredict(train_label,train_data,model);figure;%画图比较预测值和实际值subplot(2,1,1);plot(train_label, -o );holdon;plot(ptrain, r-s );gridon;legend( original , predict );title( TrainSetRegressionPredictbySVM );2.核函数为多项式核函数时train_label=data(1:50,1);train_data=data(1:50,2:14);[bestmse,bestc,bestg]=SVMcgForRegress(train_label,train_data);=[ -c ,num2str(bestc), -g ,num2str(bestg), -s3-t1-p0.01 ];model=svmtrain(train_label,train_data,);[ptrain,mse]=svmpredict(train_label,train_data,model);figure;%画图比较预测值和实际值subplot(2,1,1);plot(train_label, -o );holdon;plot(ptrain, r-s );gridon;legend( original , predict );title( TrainSetRegressionPredictbySVM );Meansquarederror=14505.6(regression)Squaredcorrelationcoefficient=0.349393(regression)3.核函数为线性乘积0--linear:u *vtrain_label=data(1:50,1);train_data=data(1:50,2:14);[bestmse,bestc,bestg]=SVMcgForRegress(train_label,train_data);=[ -c ,num2str(bestc), -g ,num2str(bestg), -s3-t0-p0.01 ];model=svmtrain(train_label,train_data,);[ptrain,mse]=svmpredict(train_label,train_data,model);figure;%画图比较预测值和实际值subplot(2,1,1);plot(train_label, -o );holdon;plot(ptrain, r-s );gridon;legend( original , predict );title( TrainSetRegressionPredictbySVM );Meansquarederror=14537(regression)Squaredcorrelationcoefficient=0.389757(regression)4.核函数为sigmoid:tanh(gamma*u *v+coef0)神经元的非线性作用函数train_label=data(1:50,1);train_d

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值