机器学习之逻辑回归

这篇博客深入探讨了机器学习中的逻辑回归。从线性回归基础开始,讨论了误差概念,然后引入似然函数和对数似然,解释它们在模型参数估计中的作用。接着,介绍了梯度下降法及其在优化过程中的应用,讨论了学习率和批处理数量的选择。最后,文章详细阐述了Sigmoid函数,强调其在将预测值转换为概率以进行分类任务的重要性。
摘要由CSDN通过智能技术生成
线性回归
  • 拟合的平面,斯塔是偏置项
    在这里插入图片描述
  • 整合
    在这里插入图片描述
误差

真实值和预测值之间肯定是要存在差异的,x是真实值,y是预测值
(用 来表示该误差)
对于每个样本:
在这里插入图片描述
误差 是独立并且具有相同的分布,并且服从均值为0方差为 的高斯分布

在这里插入图片描述

似然函数

解释: 什么样的参数跟我们的数据组合后恰好是真实值
在这里插入图片描述

<
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值