决策树如何防止过拟合?
剪枝算法
随机森林
一般情况下,如何防止过拟合?
数据集扩增(Data Augmentation):从数据源头采集更多数据;复制原有数据并加上随机噪声;重采样;根据当前数据集估计数据分布参数,使用该分布产生更多数据等。
正则化方法
提前终止训练(Early stopping)
Dropout,只用于深度学习中。
Batch Normalization。
正则化项L1和L2的区别?
L1更容易得到稀疏解:
For more detail, please refer to: https://blog.csdn.net/Left_Think/article/details/77684087
决策树和逻辑回归有什么优缺点?分别适于解决什么问题?
逻辑回归适用于处理接近线性可分的分类问题。它可以得到一个与每个观测样本相关的概率列表。