吴恩达 深度学习 logistic算法模型

logisitic回归 是一个学习算法 用在监督学习的问题中 , 当输出的y标签是0或是1的时候 是一个二分类的问题
在这里插入图片描述这是一个logistic模型 w b 是这个模型的参数 这是一个线性回归的问题 在这里我们想输出的Y的概率应该是在0和1之间的 而不应是是大于1或是为一个负数 所以我们使用了一个sigmoid函数 如图中所示 这样使得输出的y介于0和1 之间
在这里插入图片描述这是关于logistic函数的一个具体过程 在这里上面加了间间隔括号的y是我们通过参数y和b预测的一个值 而没加的y则是一个真实值 那么当真实值和预测值的平方的1/2达到一个最小的值时 也就是我们得到了最优的参数w和b 也就是训练好了 那么现在就是求关于那个L函数(L(Y* Y) = 1/2 (Y* - Y)*2的一个最优解问题 也就是如何取w b使得之函数最小 但是我们发现 没法进行求这个函数的最优解 因为是一个非凸函数 也就是只有局部最优解 因此我们转化为另一个关于L的一个函数(损失函数 是一个衡量单一训练样例的结果):(L(Y~ Y) = -(y logy~ + (1-y)log(1-y~)) 这是一个凸函数 也就是可以求解关于最优解的问题那么问题为什么这个函数能代替上面的那个函数呢 假设 y = 1 那么这个说那函数为:L = -logy` 为了使这个函数最小 又因为y~在0和1之间 那么y~最好的取值则为1 则与y一样 所以达到了一个预测值和真实值一样 那么当y= 0时候 这个函数变为 -log(1-y~) 则为了使这个函数达到一个最小值得效果 y~的取值应该为0 所以又和真实值一样 所以在w和b这两个参数的不断调试中 来使得这个函数达到一个最小值 那么对于代价函数 如图最后一个式子所示 使得代价函数(用于衡量参数w和b的效果)达到最小的对应的参数w和b 就是我们要达到的效果 这就是logistic算法模型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值