机器学习之逻辑回归实现二分类器

这篇博客介绍了如何利用逻辑回归实现二分类器,详细阐述了损失函数、求导过程以及参数更新,并通过Python代码`logisticRegression.py`进行实战演示,展示了运行结果和损失函数的收敛情况。
摘要由CSDN通过智能技术生成

机器学习之逻辑回归实现二分类器

损失函数

这里写图片描述

对损失函数求theta的偏导

这里写图片描述

类似与线性回归,根据偏导和学习率更新参数theta

python实现

#导入相关类库和数据集
import numpy as np
from sklearn import datasets

data = datasets.load_iris()#读取iris数据集
train_x = data['data'][:100]#因为是二分类问题,所以我们只需要前一百个样本,每类50个样本
train_y = data['target'][:100].reshape((-1, 1))#读取他们对应的类别标签

#导入logisticRegression类,类的实现会在下方贴出
from logisticRegression import logisticRegression
lR = logisticRegression(train_x, train_y, alpha=0.1, epoches=20)
lR.train()#调用类中的train方法
logisticRegression.py
import numpy as np
import matplotlib.pyplot as 
  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值