-
决策树怎么解决回归问题?
切分点选择:最小二乘法;
输出值:单元内均值。
示意图:
假设X和Y分别为输入和输出变量,并且Y是连续变量,给定训练数据集为 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } D=\left \{ (x_1,y_1 ),(x_2,y_2 ),...,(x_N,y_N) \right \} D={(x1,y1),(x2,y2),...,(xN,yN)},其中 x i = ( x i ( 1 ) , x i ( 2 ) , . . . , x i ( n ) ) x_i=(x_{i}^{(1)},x_{i}^{(2)},...,x_{i}^{(n)}) xi=(xi(1),xi(2),...,xi(n))为输入实例(特征向量),n为特征个数,i=1,2,…,N, N为样本容量。
对训练集中第j个特征变量 x ( j ) \small x^{(j)} x(j)和它的取值s,作为切分变量和切分点,并定义两个区域 R 1 ( j , s ) = { x ∣ x ( j ) ⩽ s } R_1(j,s)=\left \{ x|x^{(j)}\leqslant s \right \} R1(j,s)={x∣x(j)⩽s}和 R 2 ( j , s ) = { x ∣ x ( j ) > s } R_2(j,s)=\left \{ x | x^{(j)}> s \right \} R2(j,s)={x∣x(j)>s},为找出最优的 j j j和 s s s,最小化目标函数:
L ( j , s ) = ∑ x i ∈ R 1 ( j , s ) ( y i − c 1 ^ ) 2 + ∑ x i ∈ R 2 ( j , s ) ( y i − c 2 ^ ) 2 L(j,s)=\sum_{x_i\in R_1(j,s)}(y_i-\hat{c_1})^{2}+\sum_{x_i\in R_2(j,s)}(y_i-\hat{c_2})^{2} L(j,s)=xi∈R1(j,s)∑(yi−c1^)2+xi∈R2(j,s)∑(yi−c2^)2
其中 c 1 ^ = 1 N 1 ∑ x i ∈ R 1 ( j , s ) y i \hat{c_1}=\frac{1}{N_1}\sum_{x_i\in R_1(j,s)}y_i c1^=N11∑xi∈R1(j,s)yi, c 2 ^ = 1 N 2 ∑ x i ∈ R 2 ( j , s ) y i \hat{c_2}=\frac{1}{N_2}\sum_{x_i\in R_2(j,s)}y_i c2^=N21∑xi∈R2(j,s)yi,为切分后区域的均值. 原文链接 -
XGBoost 过拟合了,怎么调参数?
-
直方图均衡化知道吗?说下算法思路?
-
softmax和arcface的损失是怎样的?
-
lstm和RNN对于哪些问题题更擅长?
-
从2w条样本中采样2000条点赞数最高的怎么做?
-
pytorch中多卡训练的过程是怎样的?说下gather scatter是怎么做的?
面试知识点总结2
最新推荐文章于 2024-04-05 08:01:21 发布