山东大学计算机学院机器学习实验二

山东大学计算机学院机器学习实验二(Python Version)

实验目的:
本实验的目的是使用牛顿法针对二元分类问题实现逻辑回归。 目标是建立一个模型,可以根据学生两次考试的成绩来估计大学录取机会。 该实验包括绘制数据、应用牛顿法最小化目标函数以及分析结果。
实验步骤:
数据:实验使用的数据集代表 40 名被大学录取的学生和 40 名未录取的学生。 每个训练
请添加图片描述
示例都包含学生在两次标准化考试中的分数以及指示录取或未录取的标签。
绘制数据:在应用牛顿法之前,使用不同的符号绘制数据来表示两个类别(录取和未录取)。
请添加图片描述
绘制出的图像如图所示:
请添加图片描述

**逻辑回归:**逻辑回归的假设函数定义为 hθ(x) = g(θTx),其中 g 是 sigmoid 函数。
定义似然函数J(θ)和对数似然函数L(θ)以方便计算。 目标是最小化负对数似然函数
L(θ)。
损失函数和梯度更新函数的定义如下:
请添加图片描述

梯度下降法:最小化目标函数的一种方法是梯度下降。 该算法迭代更新 θ,直到连续迭代中目标函数值之间的差异小于阈值 ϵ。 计算达到收敛所需的迭代次数、收敛后的θ值以及迭代中L(θ)的减少量。
请添加图片描述

梯度下降法决策边界:收敛后,θ 的值用于查找分类问题中的决策边界。 决策边界定义
为 P(y=1|x;θ) = g(θTx) = 0.5 的线,对应于 θTx = 0。绘制决策边界。
请添加图片描述
梯度下降法概率计算:使用 θ 值计算两次考试中具有特定分数的学生不被录取的概率。
请添加图片描述
Final概率:0.6538676322127192
牛顿法:求导数: 计算损失函数对参数的一阶导数(梯度)和二阶导数(Hessian矩阵)
请添加图片描述
请添加图片描述
请添加图片描述
Newton’s method概率计算:使用 θ 值计算两次考试中具有特定分数的学生不被录取的概率。
请添加图片描述
Final 概率:0.6680218036811543
结论分析与体会:
实验的目的很清晰,就是用牛顿法解决一个二元分类问题,具体来说,就是通过学生两次考试的成绩来预测他们被大学录取的机会。
首先,我在实验报告中详细描述了实验目的,然后进入了实验步骤。我用不同的符号绘制数据,以区分录取和未录取的学生。逻辑回归的部分,我定义了假设函数、似然函数和对数似然函数,还介绍了梯度下降法作为最小化目标函数的一种方法。
我很自豪我的图形展示,特别是损失函数随迭代次数的变化和决策边界的绘制。这些图形直观地展示了算法的收敛过程和最终结果。
在牛顿法的部分,我展示了损失函数一阶导数和二阶导数的计算,以及相应的决策边界和概率计算。这个部分对我来说是个挑战,但我觉得我理解得还不错。
最后,我的结论部分总结了两种方法的最终概率,并对整个实验进行了分析。如果我能再多讨论一下两种方法的优劣势以及它们在实际问题中的应用,可能会更好。
总的来说,这是一个充实而有趣的实验,我觉得我对机器学习和数学方法有了更深的理解。
希望我的实验报告能为我的学习带来一些收获,也希望在未来的学习中能够继续进步!

# numpy实现
import numpy as np
from tqdm import tqdm
import matplotlib.pyplot as plt

# 指定.dat文件的路径
file_path1 = 'data2/ex2x.dat'

# 使用numpy的loadtxt函数读取数据
x = np.loadtxt(file_path1)
x = np.c_[np.ones(x.shape[0]), x]
x_ = x
# 计算均值和标准差
mean_x = np.mean(x, axis=0)
std_x = np.std(x, axis=0)
# 标准化数据
x[:, 1:] = (x[:, 1:] - mean_x[1:]) / std_x[1:]

# 指定.dat文件的路径
file_path = 'data2/ex2y.dat'

# 使用numpy的loadtxt函数读取数据
y = np.loadtxt(file_path)

# Assuming y is a NumPy array and x is a 2D NumPy array
pos = np.where(y == 1)[0]
neg = np.where(y == 0)[0]

# Assuming features are in the 2nd and 3rd columns of x
plt.plot(x[pos, 1], x[pos, 2], 'o', markerfacecolor='none', markeredgecolor='blue', markersize=4, label='Positive')
plt.plot(x[neg, 1], x[neg, 2], 'o', markerfacecolor='none', markeredgecolor='red', markersize=4, label='Negative')

# 画图
plt.xlabel('Feature 2')
plt.ylabel('Feature 3')
plt.legend()
plt.figure(dpi=1000)
plt.show()

sigmoid = lambda z: 1.0 / (1.0 + np.exp(-z))
m = len(x)


def delta_l(theta):
    mysum = [0, 0, 0]
    for i in range(m):
        mysum = mysum + (sigmoid(np.dot(theta, x[i])) - y[i]) * x[i]

    return (1 / m) * mysum


def l_func(theta):
    mysum = 0.0
    for i in range(m):
        mysum = mysum - y[i] * np.log(sigmoid(np.dot(theta, x[i]))) - \
                (1 - y[i]) * np.log(1 - sigmoid(np.dot(theta, x[i])))

    return 1 / m * mysum



ans_thetas = []
max_iter = 10000
max_err = 10 ** -6
alphas = [0.01]
end = 0
# for alpha in (alphas):
#     theta = np.array([0, 0, 0])
#     L = np.zeros(10000)
#     for t in tqdm(range(1, max_iter)):
#         L[t] = l_func(theta)
#         # print(L[t])
#         if t > 1 and abs(L[t] - L[t - 1]) < max_err:
#             end = t
#             ans_thetas.append(theta)
#             break
#         theta = theta - alpha * delta_l(theta)

print(ans_thetas)

theta = np.array([0, 0, 0])
L = np.zeros(10000)
for t in tqdm(range(max_iter)):
    L[t] = l_func(theta)
    if t > 1 and abs(L[t] - L[t - 1]) < max_err:
        end = t
        ans_thetas.append(theta)
        break
    z = x @ theta
    g_z = sigmoid(z)

    # Gradient calculation
    grad = np.dot(x.T, g_z - y) / m

    # Hessian calculation
    H = np.dot(np.dot(x.T, np.diag(1 - g_z)), np.dot(np.diag(g_z), x)) / m

    # Update theta using Newton's Method
    theta = theta - np.linalg.inv(H) @ grad

# Plotting loss function L as a function of iterations
plt.plot(range(1, end), L[1:end])
plt.xlabel('Iteration')
plt.ylabel('L(θ)')
plt.title('Loss Function (SG’s Method)')

# Display the plot
plt.show()

theta = ans_thetas[-1]

# Plotting data points
plt.scatter(x_[pos, 1], x_[pos, 2], marker='o', label='Admitted')
plt.scatter(x_[neg, 1], x_[neg, 2], marker='o', label='Not Admitted')

# Plotting decision boundary
x_plot = np.linspace(np.min(x_[:, 1]), np.max(x_[:, 1]), 100)
y_plot = -(theta[1] * x_plot + theta[0]) / theta[2]
plt.plot(x_plot, y_plot, label='Decision Boundary', color='red')

# Adding labels and legend
plt.ylabel('Exam 2 score')
plt.xlabel('Exam 1 score')
plt.legend()

# Display the plot
plt.show()

to_pridict = np.array([1, 20.0, 80.0])
to_pridict[1:] = (to_pridict[1:] - mean_x[1:]) / std_x[1:]
print(1 - sigmoid(np.dot(to_pridict, theta)))

# pytorch自动求导
# -*- coding: utf-8 -*-
"""Untitled6.ipynb

Automatically generated by Colaboratory.

Original file is located at
    https://colab.research.google.com/drive/1EZxTUqgDtPVIkfjsvUUt8ZxQztFa-kkk
"""

import torch
from tqdm import tqdm
import matplotlib.pyplot as plt
import numpy as np

# 指定.dat文件的路径
file_path1 = 'data2/ex2x.dat'

# 使用numpy的loadtxt函数读取数据
x = np.loadtxt(file_path1)
x = np.c_[np.ones(x.shape[0]), x]
x_ = x
# 计算均值和标准差
mean_x = np.mean(x, axis=0)
std_x = np.std(x, axis=0)

# 标准化数据
x[:, 1:] = (x[:, 1:] - mean_x[1:]) / std_x[1:]

# 指定.dat文件的路径
file_path = 'data2/ex2y.dat'

# 使用numpy的loadtxt函数读取数据
y = np.loadtxt(file_path)

x = torch.tensor(x, dtype=torch.float32)
y = torch.tensor(y, dtype=torch.float32).view(-1, 1)  # reshape y to (m, 1)

sigmoid = torch.sigmoid

m = len(x)


def l_func(theta, x, y):
    z = torch.mm(x, theta)
    h = sigmoid(z)
    loss = -torch.mean(y * torch.log(h) + (1 - y) * torch.log(1 - h))
    return loss


theta = torch.normal(0, 0.01, size=(3, 1), requires_grad=True)

alpha = 0.01

# 定义梯度下降优化器
optimizer = torch.optim.SGD([theta], lr=alpha)

# 存储损失值的列表
max_iter = 50000
max_err = 0.0000001
L_values = [0] * max_iter

# 反向传播优化
for epoch in tqdm(range(max_iter)):
    optimizer.zero_grad()  # 清零梯度
    loss = l_func(theta, x, y)
    loss.backward()  # 反向传播
    optimizer.step()  # 更新参数
    # print(theta)
    # 记录损失值
    L_values[epoch] = (loss.item())
    # print(loss.item())

    if epoch > 1 and abs(L_values[epoch] - L_values[epoch - 1]) < max_err:
        # print(L_values[epoch])
        end = epoch
        break

# 打印最终的 theta 值
print("Final theta:", theta.data.numpy())

# 打印损失值随迭代次数的变化
plt.plot(range(1, end), L_values[1:end])
plt.xlabel('Iteration')
plt.ylabel('Loss')
plt.title('Loss Function (PyTorch)')
plt.show()
  • 22
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

咕噜咕噜咕噜128

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值