支持向量回归SVR

  1. 支持向量回归算法在做大型项目,尤其是数据标签等相对复杂的项目时特别有用。

  2. 支持向量回归算法无论在线性回归场景还是非线性回归场景都有广泛的应用。

  3. SVR在驱动上有很多不同的类型,但应用最广泛的是高斯核和径向基函数核。

  4. 好处是可以极大地减少计算的消耗。

import numpy as np

import matplotlib.pyplot as plt
plt.rcParams["font.sans-serif"]=["SimHei"] #设置字体
plt.rcParams["axes.unicode_minus"]=False #该语句解决图像中的“-”负号的乱码问题

import pandas as pd

dataset=pd.read_csv('Position_Salaries.csv')
X=dataset.iloc[:,1:2].values
y=dataset.iloc[:,2].values
#特征缩放
from sklearn.preprocessing import StandardScaler
sc_X=StandardScaler()
sc_y=StandardScaler()

X=sc_X.fit_transform(X.reshape(-1, 1))
y=sc_y.fit_transform(y.reshape(-1, 1))
#在数据集上拟合支持向量回归模型
from sklearn.svm import SVR
regressor=SVR(kernel='rbf')
regressor.fit(X,y)
#预测结果
y_pred=regressor.predict([[6.5]])#因为前面进行了缩放,所以这里的值是小于1的
y_pred=sc_y.inverse_transform(y_pred.reshape(-1, 1)) #进行缩放的逆操作,获得实际的预测值
#可视化支持向量回归的结果
plt.scatter(X,y,color='red')
plt.plot(X,regressor.predict(X),color='blue')
plt.title('支持向量回归')
plt.xlabel('级别')
plt.ylabel('工资')
plt.show()

在这里插入图片描述

#支持向量回归结果可视化,用于更高的分辨率和更平滑的曲线
X_grid=np.arange(min(X),max(X),0.01)
X_grid=X_grid.reshape((len(X_grid),1))
plt.scatter(X,y,color='red')
plt.plot(X_grid,regressor.predict(X_grid),color='blue')
plt.title('支持向量回归')
plt.xlabel('级别')
plt.ylabel('工资')
plt.show()

在这里插入图片描述

SVR能够对输入空间进行分类,获取一个预估器,不需要对数据进行处理,就能知道数据处于怎样的空间,这可以极大地减少数据的计算,尤其是复杂数据的计算。
因此,SVR在数据量比较大、特征比较多的时候很有应用价值的原因。

  • 1
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

杰米的大鱼

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值