一下是本人回忆总结,有很多不完整或者错误的地方。
对P(y|x;Θ)进行建模,目前主要学习了两种算法:
1、y∈R时,y满足高斯分布 ——>使用基于最小二乘法的线性回归 。
为了使数据集与回归函数的误差值最小,使用最小二乘法可以达到这个目的。
当数据集特别大的时候,为了避免计算量大,因此使用单个数据的计算结果进行迭代,依次使用数据集中数据。最后求得Θ使误差函数最小。
2、y∈{0,1};这是一个分类问题,y取0或1。
对分类问题进行线性回归是一件非常糟糕的事情。
最为自然的0-1之间的分布是伯努利分布,他可以只取0或1 ——>因此得到了logistic回归。