1.贝叶斯
贝叶斯定理是关于事件A与事件B的条件概率和边缘概率的一项准则 。
P(A|B) 指在 B 发生的情况下 A 发生的可能性,即已知 B 发生后 A 的条件概率,也可以理解为先有 B 再有 A,由于源于 B 的取值而被称作 A 的后验概率
P(A) 指 A 的先验概率或边缘概率(先验可以理解为事件 A 的发生不考虑任何 B 方面的因素)
P(B) 指 B 的先验概率或边缘概率,也可以作为标准化常量
P(B|A) 指已知 A 发生后 B 的条件概率,即先有 A 再有 B,由于源于 A 的取值而被称作 B 的后验概率
2.LR和linear regression之间的区别与区别
逻辑回归和线性回归都是广义的线性回归;线性模型的优化目标函数是最小二乘,而逻辑回归则是似然函数;线性回归的输出是实域上连续值,LR的输出值被S型函数映射到[0,1],通过设置阀值转换成分类类别;liner regression期望拟合训练数据,通过feature的线性加权来预测结果; logistic regression是在训练一个最大似然分类器。