import numpy as np
import pandas as pd
import os
data = pd.read_csv("iris.csv") # 这里的iris数据已做过处理
m, n = data.shape
dataMatIn = np.ones((m, n))
dataMatIn[:, :-1] = data.ix[:, :-1]
classLabels = data.ix[:, -1]
# sigmoid函数和初始化数据
def sigmoid(z):
return 1 / (1 + np.exp(-z))
# 随机梯度下降
def Stocgrad_descent(dataMatIn, classLabels):
dataMatrix = np.mat(dataMatIn) # 训练集
labelMat = np.mat(classLabels).transpose() # y值
m, n = np.shape(dataMatrix) # m:dataMatrix的行数,n:dataMatrix的列数
weights = np.ones((n, 1)) # 初始化回归系数(n, 1)
alpha = 0.001 # 步长
maxCycle = 500 # 最大循环次数
epsilon = 0.001
error = np.zeros((n,1))
for i in range(maxCycle):
for j in range(m):
h = sigmoid(dataMatrix * weights) # sigmoid 函数
weights = weights + alpha * dataMatrix.transpose() * (labelMat - h) # 梯度
if np.linalg.norm(weights - error) <
梯度下降和逻辑回归例子(Python代码实现)
最新推荐文章于 2021-12-08 10:43:53 发布
这篇博客通过Python代码详细介绍了如何实现梯度下降算法和逻辑回归模型,适合初学者理解这两个概念。
摘要由CSDN通过智能技术生成