cs229
鱿鱼圈是真鱿鱼吗
这个作者很懒,什么都没留下…
展开
-
cs229 lecture5 笔记
对比逻辑回归同时观察两个类并寻找将它们分开的方法,生成学习算法每次只观察一个类并建立对应的模型 判别式学习算法:学习P(Y|X) 生成式学习算法:学习P(X|Y)及P(Y) 生成算法可分为: 对于连续值:eg肿瘤分类 对于离散值:eg垃圾邮件分类 高斯判别分布(GDA) 对于高斯判别分布,两个类别使用一个协方差矩阵的原因是,这样的话决策边界将会呈现线性形式 如果想逻辑回归一样做出较弱的假设,那么那么算法对于模型的鲁棒性更强。但同时如果数据集较小时,使用做出更强假设的模型将得到更好的结果 (处理现实数.原创 2020-09-18 21:06:49 · 87 阅读 · 0 评论 -
CS229 lecture4 笔记
1. 局部加权线性回归 线性回归是一种参数学习算法,而局部加权线性回归是非参数学习算法 也就是说其数据/参数的个数(或存储空间)需要随着数据集的大小增长, 适用情况:数据集维度较低但数据量很大 2. 逻辑回归 尽管与线性回归的表达式相同,其区别在于θ的定义发生了变化(?) 3. 牛顿方法 梯度上升方法需要很多次迭代才能最终收敛,而牛顿方法比用于优化θ值的梯度上升法更加快速 接近最小值时牛顿迭代收敛十分迅速,这也就是为什么牛顿法所需收敛次数较少 牛顿法的缺点:在高维问题中,如果θ是向量,那原创 2020-09-16 22:42:13 · 127 阅读 · 0 评论