机器学习基础(二)逻辑回归

本文详细介绍了机器学习中的逻辑回归,包括符号定义、公式推导、梯度下降公式,以及在matlab中的实现。通过梯度下降和内置优化函数求解代价函数,实现逻辑回归模型。实验结果显示,分类精度达到86.7%。
摘要由CSDN通过智能技术生成

机器学习—— 逻辑回归(Logistic regression)

本文主要是对 《机器学习》中的逻辑回归做一个简单的公式推导以及编码实现。该内容只涉及公式的推导,并不具体阐述公式含义。具体视频可以参考 吴恩达老师讲解的机器学习的逻辑回归。

1. 符号和定义

  • 样本矩阵 X = [ x 1 , x 2 , ⋯   , x n ] T ∈ R n × d X = [x_1,x_2,\cdots,x_n]^T \in R^{ n\times d} X=[x1,x2,,xn]TRn×d , x i x_i xi 表示第 i 个样本。
  • 标签矩阵 Y = [ y 1 , y 2 , ⋯   , y n ] T ∈ { 0 , 1 } n Y = [y_1,y_2,\cdots,y_n]^T \in \{0,1\}^ n Y=[y1,y2,,yn]T{ 0,1}n
  • 权重向量 θ ∈ R d \theta \in R^d θRd

2. 公式以及推导过程

2.1 假设函数

H θ ( x i ) = 1 1 + e − x i θ (1) H_{\theta}(x_i) = \frac{1}{1+e^{-x_i\theta}} \tag{1} Hθ(xi)=1+exiθ1(1)

2.2 目标函数(代价函数)

原目标函数:

J ( θ ) = 1 m ∑ i = 1 m − y i log ⁡ ( 1 1 + e − x i θ ) − ( 1 − y i ) log ⁡ ( 1 − 1 1 + e − x i θ ) J(\theta) = \frac{1}{m}\sum_{i=1}^m{-y_i \log(\frac{1}{1+e^{-x_i\theta}}) - (1-y_i)\log(1-\frac{1}{1+e^{-x_i\theta}}) } J(θ)=m1i=1myilog(1+exiθ1)(1yi)log(11+exiθ1)

目标函数化简:化简只是为了方便后续的求导

J ( θ ) = 1 m ∑ i = 1 m − y i log ⁡ (

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值