梯度下降和逻辑回归例子(Python代码实现)

这篇博客通过Python代码详细介绍了如何实现梯度下降算法和逻辑回归模型,适合初学者理解这两个概念。
摘要由CSDN通过智能技术生成
import numpy as np
import pandas as pd
import os

data = pd.read_csv("iris.csv")  # 这里的iris数据已做过处理
m, n = data.shape
dataMatIn = np.ones((m, n))
dataMatIn[:, :-1] = data.ix[:, :-1]
classLabels = data.ix[:, -1]

# sigmoid函数和初始化数据
def sigmoid(z):
    return 1 / (1 + np.exp(-z))

# 随机梯度下降
def Stocgrad_descent(dataMatIn, classLabels):
    dataMatrix = np.mat(dataMatIn)  # 训练集
    labelMat = np.mat(classLabels).transpose()  # y值
    m, n = np.shape(dataMatrix)  # m:dataMatrix的行数,n:dataMatrix的列数
    weights = np.ones((n, 1))  # 初始化回归系数(n, 1)
    alpha = 0.001  # 步长
    maxCycle = 500  # 最大循环次数
    epsilon = 0.001
    error = np.zeros((n,1))
    for i in range(maxCycle):
        for j in range(m):
            h = sigmoid(dataMatrix * weights)  # sigmoid 函数
            weights = weights + alpha * dataMatrix.transpose() * (labelMat - h)  # 梯度
        if np.linalg.norm(weights - error) < 
逻辑回归是一种机器学习算法,常用于二分类问题。下面是一个逻辑回归Python代码实现例子: ```python import numpy as np import pandas as pd # Sigmoid函数,用于将预测结果转化为概率值 def sigmoid(z): return 1 / (1 + np.exp(-z)) # 损失函数,用于评估模型的准确性 def cost(theta, X, y): theta = np.matrix(theta) X = np.matrix(X) y = np.matrix(y) first = np.multiply(-y, np.log(sigmoid(X * theta.T))) second = np.multiply((1-y), np.log(1 - sigmoid(X * theta.T))) return np.sum(first - second) / len(X) # 梯度下降算法,用于最小化损失函数,得到最优参数 def gradientDescent(X, y, theta, alpha, iters): temp = np.matrix(np.zeros(theta.shape)) parameters = int(theta.ravel().shape[1]) cost = np.zeros(iters) for i in range(iters): error = sigmoid(X * theta.T) - y for j in range(parameters): term = np.multiply(error, X[:,j]) temp[0,j] = theta[0,j] - (alpha / len(X)) * np.sum(term) theta = temp cost[i] = cost(theta, X, y) return theta, cost # 读取数据 data = pd.read_csv('data.csv') # 添加一列全为1的特征列 data.insert(0, 'Ones', 1) # 将数据转化为矩阵 cols = data.shape[1] X = data.iloc[:,0:cols-1] y = data.iloc[:,cols-1:cols] X = np.matrix(X.values) y = np.matrix(y.values) theta = np.zeros([1,3]) # 设置学习率和迭代次数 alpha = 0.01 iters = 1000 # 执行梯度下降算法,得到最优参数 theta, cost = gradientDescent(X, y, theta, alpha, iters) # 输出最优参数和损失函数值 print("最优参数:", theta) print("损失函数值:", cost[-1]) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值