边际误差计算

边际误差计算
在本选修部分,我们将会计算 SVM 中两个间隔之间的距离。

首先,W = (w_1, w_2)W=(w
1
​ ,w
2
​ ) ,x = (x_1,x_2)x=(x
1
​ ,x
2
​ ),并且 Wx = w_1x_1 + w_2x_2Wx=w
1
​ x
1
​ +w
2
​ x
2
​ .

请注意,在这里我们有三条线,方程如下:

Wx+b=1Wx+b=1
Wx+b=0Wx+b=0
Wx+b=-1Wx+b=−1
由于这三条线为等距平行线,要想确定第一条线和第三条线之间的距离,我们只需要计算前两条线之间的距离,接着将这个数字乘以二。这也就是说我们需要确定图 1 中前两条线之间的距离。

图 1

请注意,由于我们只需计算线条之间的距离,因此也可以将线条平移,直到其中一条线与原点相交(图 2)。这时得到的方程如下:

Wx=0Wx=0
Wx=1Wx=1

图 2

现在,第一条线的方程为 Wx=0Wx=0,这意味着它与标记为红色的向量(图 3) W = (w_1, w_2)W=(w
1
​ ,w
2
​ ) 垂直。

图 3

该向量与方程为 Wx=1Wx=1 的线条相交于蓝点(图 4)。假设该点的坐标为 (p,q)(p,q)。那么我们可以得到下面两个结果:

w_1p + w_2q = 1w
1
​ p+w
2
​ q=1 (由于该点位于这条线上),并且
由于该点位于向量 W = (w_1, w_2)W=(w
1
​ ,w
2
​ ) 上,(p,q)(p,q) 是 (w_1, w_2)(w
1
​ ,w
2
​ ) 的倍数。
我们可以这样求解这个方程:对于某个 k 值而言,有 (p,q) = k(w_1, w_2)(p,q)=k(w
1
​ ,w
2
​ )。那么我们的第一个方程将被转换为 k(w_1^2 + w_2^2) = 1.k(w
1
2
​ +w
2
2
​ )=1.。因此,k = \frac{1}{w_12+w_22} = \frac{1}{|W|^2}k=
w
1
2
​ +w
2
2

1
​ =
∣W∣
2

1
​ 。这也就是说,蓝点表示向量 \frac{W}{|W|^2}
∣W∣
2

W
​ ,如图 4 所示。

图 4

现在,两条线之间的距离是蓝色向量的范数。由于分母是一个标量,向量 \frac{W}{|W|^2}
∣W∣
2

W
​ 的范数正是 \frac{|W|}{|W|^2}
∣W∣
2

∣W∣
​ ,与 \frac{1}{|W|}
∣W∣
1
​ (图 5)相同。

图 5

最后,最终距离是这连续两条平行线(图 6)之间的距离之和。由于每两条线之间的距离为 \frac{1}{|W|}
∣W∣
1
​ ,那么总距离为 \frac{2}{|W|}
∣W∣
2
​ 。

图 6

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在Python中,计算边际误差的方法取决于所使用的模型和评估指标。下面是几个常见的计算边际误差的方法: 1. 线性回归模型: ```python from sklearn.linear_model import LinearRegression from sklearn.metrics import mean_squared_error from sklearn.model_selection import cross_val_score # 加载数据 X, y = load_data() # 创建线性回归模型 model = LinearRegression() # 使用交叉验证计算边际误差 scores = cross_val_score(model, X, y, scoring='neg_mean_squared_error', cv=10) marginal_error = scores.mean() print("Marginal error:", marginal_error) ``` 2. 决策树模型: ```python from sklearn.tree import DecisionTreeRegressor from sklearn.metrics import mean_squared_error from sklearn.model_selection import cross_val_score # 加载数据 X, y = load_data() # 创建决策树回归模型 model = DecisionTreeRegressor() # 使用交叉验证计算边际误差 scores = cross_val_score(model, X, y, scoring='neg_mean_squared_error', cv=10) marginal_error = scores.mean() print("Marginal error:", marginal_error) ``` 3. 随机森林模型: ```python from sklearn.ensemble import RandomForestRegressor from sklearn.metrics import mean_squared_error from sklearn.model_selection import cross_val_score # 加载数据 X, y = load_data() # 创建随机森林回归模型 model = RandomForestRegressor() # 使用交叉验证计算边际误差 scores = cross_val_score(model, X, y, scoring='neg_mean_squared_error', cv=10) marginal_error = scores.mean() print("Marginal error:", marginal_error) ``` 在上述示例中,我们使用交叉验证计算模型的边际误差。`cross_val_score`函数用于在数据集上执行k-fold交叉验证,并返回每个验证集的评估分数。在这里,我们使用负均方误差(neg_mean_squared_error)作为评估指标,因为它是回归模型中常用的指标。最后,我们计算所有验证集的平均误差作为模型的边际误差
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值