做bagging和boosting不好
Nb和LR的异同:
相似点:
逻辑回归是基于损失函数最小化,求梯度下降法
贝叶斯:跳过loss函数,直接得出权重
因为贝叶斯比逻辑回归多了一个条件独立假设。
LR是判别模型,NB是生成模型。
贝叶斯网络:
反直觉,大量的先验知识。
做bagging和boosting不好
Nb和LR的异同:
相似点:
逻辑回归是基于损失函数最小化,求梯度下降法
贝叶斯:跳过loss函数,直接得出权重
因为贝叶斯比逻辑回归多了一个条件独立假设。
LR是判别模型,NB是生成模型。
贝叶斯网络:
反直觉,大量的先验知识。