- 博客(6)
- 问答 (1)
- 收藏
- 关注
原创 关于吴恩达机器学习逻辑回归的补充!!!
我觉得之前我对于逻辑回归的理解过于浅薄,当逻辑回归是直线的时候游刃有余但是当是高次的时候说实话一下子有点懵,我认为还是对逻辑回归认识不清导致,而且只练习了一组数据。这里就算是1/(1+e^(-g(x)),对其求偏导的结果也和上次的结果差不多,这里就不多加赘述,感兴趣的话可以参考我下面的两篇文章然后自己推一下。所以这个时候我们把预测结果给用sigmoid函数归一化去减少这些影响,g(x)很大或很小甚至是负数‘的时候,h(x)将始终小于1.然后这里把分割的函数换成h(x),我在这里讲一下我对于这其中的理解哈。
2024-03-29 00:22:35 767 1
原创 吴恩达机器学习笔记之第六章中代价函数的化简与梯度下降公式结果推导
昨天看第六章的课件的时候发现那个代价函数求偏导的过程有点点复杂,令我甚是头痛啊😭,因为不知道矩阵怎么导,而且原函数也比较的复杂(起码对我来说是这样),但还好最后解决了,过程我就放下面了😔,如果有不足的地方还劳烦大家指正补充一下(抱拳)😘。这里面有个小tip,就是h(x)不是简单的线性回归,在第六章也讲过,它应该是下面这个式子。原代价函数的化简我直接老师的课件了,过程老师已经在课上讲过也很简单这里不过多赘述咯。然后我们把(1)式和(2)式结合起来就不难得到。导出来,在这之前,因为涉及到矩阵的求导(
2024-03-23 14:10:41 282
空空如也
这个问题咋搞啊,求解!!
2021-08-30
TA创建的收藏夹 TA关注的收藏夹
TA关注的人