注,本文是在学习吴恩达老师(Andrew Ng)网易公开课课程的的学习总结和理解,希望与君共勉!
1. y帽用来表示输入x是猫的可能性,取值为0到1之间,给定输入特征向量x,如果知道w和b就可以得到y帽,当y帽越接近于1,表示是猫的可能性就越大,当y越接近于0,表示是猫的可能性就越小。
2. sigmoid 函数。当z无穷大y帽接近于1,当z无穷小y帽接近于0。
3. 逻辑回归的本质:当你做Logistic Regression的时候,在x和y为已知的情况下(比如是猫还是非猫),学习得到参数w和b,使得y帽尽可能的接近y。什么是叫学习呢,也许可以理解成做无限次尝试找到一个使得y帽尽可能的接近y的那个值吧。
4. 如何得到学习得到w和b呢,后面用到的梯度下降算法可以用来快速的得到w和b。
5. 利用学习得到的w和b,下次给定x就可以得到y帽,用来表示是猫的可能性。