逻辑回归-采用的是梯度上升

# 读取数据和分割数据
from math import  exp
import numpy as np
def loadData():
    dataMat=[];labelMat =[]
    fr = open('testSet.txt')
    for line in fr.readlines():
        lineArr = line.strip().split()
        dataMat.append([1.0,float(lineArr[0]),float(lineArr[1])])
        labelMat.append(int(lineArr[2]))
    return dataMat,labelMat

# 定义光滑函数
def sigmod(inX):
    return  1.0 /(1 + exp(-inX))

#定义梯度上升():好像不是梯度上升
def gradAscent(dataMatIn,classLabels):
    dataMatrix = np.mat(dataMatIn)
    labelMat = np.mat(classLabels).transpose()
    m,n= np.shape(dataMatrix)
    alpha =0.01
    maxCyles =500
    weights =np.ones(n,1)
    for k in range(maxCyles):
        h = sigmod(dataMatrix * weights)
        error = (labelMat -h)
        weights = weights + alpha * dataMatrix.transpose() *error
    return weights

#

其中推导上升推导可以参考:
https://blog.csdn.net/tianse12/article/details/70183348

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值