机器学习
吃橘子要剥橘子皮
这个作者很懒,什么都没留下…
展开
-
机器学习-cs229-逻辑回归
文章目录逻辑回归**逻辑回归重新定义代价函数**为什么不用平方损失函数?用极大似然估计的方法总结一下算法:对Jθ求导,推荐博文逻辑回归公式:用g(x)表示z物理意义:对于输入x,输出为y=1的可能性从函数的值的角度:在这里插入图片描述注:这里阈值可以调逻辑回归重新定义代价函数线性回归的代价函数为 :代入到平方代价函数的时候 ,我们得到的代价函数将是一个非凸函数 (non-convexfunction) :这将严重影响梯度下降算法寻找全局最小值所以考虑到 Sigmoid 函原创 2020-10-16 21:59:09 · 659 阅读 · 0 评论 -
机器学习-cs229-线性回归-泰勒展开法
上一篇说的是梯度下降法,这次说泰勒展开法,用二次曲线来找到极小值点我们为了找到J(0)求导的极小值用二次曲线逼近极小值点,求得二次曲线的极限值对应的f(x)值,直到f(x)收敛为止以上两张图是用二次函数来找极小值点。用二元泰勒公式,hessian函数。评价:不能保证找到最小值点...原创 2020-09-28 23:50:58 · 471 阅读 · 0 评论 -
机器学习-cs229-线性回归-梯度下降法
机器学习-cs229-线性回归part one任务:预测房价损失函数cost function线性回归的逻辑:梯度下降法房价函数的梯度下降式子:学习率learning rate:参数 α求J(θ)的极小值方法一:BDG 批量梯度下降,计算整个数据集的梯度方法二:随机梯度下降法任务:预测房价价格= F(面积,床数)目标函数:向量表示:损失函数cost function我们最终确定的线性函数 h(x) 上每个x值对应的 h(x) 值 & 真实的y值之间的差别,而差别我们用平方差来表示原创 2020-09-18 14:35:27 · 258 阅读 · 0 评论