logistic分类

本文介绍了Logistic分类的原理,利用sigmoid函数进行二分类。详细阐述了代价函数的设计,采用最大似然性,并探讨了参数求解过程,特别是梯度下降法的应用。还分享了模型训练的代码实现,包括批梯度下降和随机梯度下降,并讨论了代价函数与收敛性。最终,通过sigmoid输出与0.5阈值比较来确定类别。
摘要由CSDN通过智能技术生成

1、原理:使用sigmod函数将回归映射到分类。二分类,
2、代价函数:使用概率分布、伯努利方程设计最大 似然性为代价函数
目标函数:最小化 -似然最大
3、参数求解:梯度下降(上升?)
数学推导:sig’=h*(1-h)
4、模型训练代码:
(1)批梯度下降和随机梯度下降
(2)关于代价函数和收敛

# -*- coding: utf-8 -*-
import numpy as np
from sklearn import datasets

def sigmoid(z):
    return 1 / (1 + np.exp(-z))

def data_initial():
    dataset =datasets.load_iris()

    X = dataset.data[0:100]
    Y = dataset.target[0:100]
    return X, Y

# 批梯度下降每次使用全部样本对参数更新
def BGD_grad_descent(dataMatIn, classLabels):
    dataMatrix = np.mat(dataMatIn)  #(m,n)
    labelMat = np.mat(classLabels).transpose()
    m, n = np.shape(dataMatrix)
    print m
    weights = np.ones((n, 1))  #初始化回归系数(n, 1)
    alpha = 0.001 #步长
    maxCycle = 500  #最大循环次数
    J= []
    Accuracy= 0.001
    for i in range(maxCycle):
        h = sigmoid(dataMatrix *
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值