线性回归逻辑回归以及梯度下降算法讲解

本文详细讲解了梯度下降算法,包括其基本思想、学习率的影响以及批量、随机和小批量梯度下降的类型。同时,对比了线性回归和逻辑回归,阐述了分类与回归问题的区别,并探讨了逻辑回归在二分类和多分类问题中的应用。
摘要由CSDN通过智能技术生成

梯度下降算法很久之前就看过了,近来想对这些知识做一个整体的梳理,一来是为了便于对知识的回顾和总结,二来也希望可以帮助到大家更好地掌握到这些知识。

下图是一个算法最基本的流程图,接下来会讲解为什么要使用梯度下降算法,梯度下降算法中步长的理解、分类问题和回归问题的区别、sigmoid和softmax的比较。如果文章有错误的地方,欢迎大家指出。
在这里插入图片描述

1、梯度下降算法

1.1、梯度下降算法

我们先来介绍最基本的训练过程

现在我们假设只有一个输入样本和标签,经过了一个简单的变换,即求一个单变量线性回归
单变量线性回归表示方法:


在这里插入图片描述

单变量的代价函数J表示(均方误差):


在这里插入图片描述

我们现在用数学公式总结一下我们的问题,即


在这里插入图片描述

我们的目的是找到合适的θ0,θ1使得代价函数最小,这时候我们列出所有的θ0,θ1 对应的J值,得到一个三维空间图。


在这里插入图片描述

或者得到这种二维空间图

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值