第一次写博客,有哪些不足请多加指点,感激不尽。博客会是今后我学习机器学习的一个纪录中心,目标是将为了脚踏实地,因为之前的半年,自己一直在断断续续地学习机器学习,但是从未真正掌握任一原理,实在是惭愧。
逻辑回归是最常见的分类算法,其中二分类算法广泛应用于各个领域,之前与这一领域的面试官请教过,他说像对用户的唤醒这块用的就是逻辑回归算法,还有其他现实中的应用场景希望前辈能够留言告诉我。
根据自己上的吴恩达大神的公开课之后,再看了其他的相关讲解之后,一点点吃透。一开始接触机器学习,听得懂推导过程,so easy,but让我讲为什么用sigmoid函数,怎么判断lr模型的效果,尴尬,似懂非懂,就是不会。于是经历了反复推导公司、加深公式的理解之后,原来是这样啊。sigmoid函数的图象画出来,一目了然,输入的变量带入到sigmoid函数便能够将目标值的取值范围变为(0,1)之间,所以这时候设个阈值就能将最终的目标值分为0 or 1。而最大似然估计是为了使预测分类结果的正确率达到最大值,梯度下降是最大似然估计的参数求解的一个方法。因为求解模型就是求解最优参数,一切一目了然。以下是我自己手写的推导过程,大部分都是课程讲义的内容啦。不过我想问下,最后的常数b是不是被搞丢了?有没有影响呢?