python一元线性回归:梯度下降法、损失函数

# -*- coding: utf-8 -*-


import numpy as np
import matplotlib.pyplot as plt

# %matplotlib inline

# 1.读入数据
data = np.genfromtxt('一元线性回归.csv', delimiter=',')
x_data = data[:, 0]  # 1维
y_data = data[:, 1]  # 1维
plt.scatter(x_data, y_data)

# 2.用梯度下降法调整参数
k = 0  # 先随便设置一个k
b = 0  # 先随便设置一个b
learing_rate = 0.0001  # 学习率
epoches = 30  # 循环30次
m = len(x_data)  # 一共100条数据

# 不断的调用k和b
for i in range(epoches):
    # for j in range(m):
    k_grad = (k * x_data + b - y_data) * x_data
    b_grad = k * x_data + b - y_data

    k_grad = (-1 / m) * sum(k_grad)
    b_grad = (-1 / m) * sum(b_grad)

    k = k + learing_rate * k_grad
    b = b + learing_rate * b_grad

print('最终结果:k={}, b={}'.format(k, b))
plt.scatter(x_data, y_data)
plt.plot(x_data, x_data * k + b, 'r')

# 改进1

k = 0  # 先随便设置一个k
b = 0  # 先随便设置一个b
learing_rate = 0.0001  # 学习率
epoches = 30  # 循环30次
m = len(x_data)  # 一共100条数据


def loss_function(k, b):
    total_error = (k * x_data + b - y_data) ** 2
    total_error = sum(total_error)
    return total_error / (2 * m)


# 不断的调用k和b
for i in range(1, epoches + 1):

    k_grad = (k * x_data + b - y_data) * x_data
    b_grad = k * x_data + b - y_data

    k_grad = (-1 / m) * sum(k_grad)
    b_grad = (-1 / m) * sum(b_grad)

    k = k + learing_rate * k_grad
    b = b + learing_rate * b_grad

    # 每循环5次,输出此时k, b和损失函数
    if i % 3 == 0:
        print('epoch{}:k={},b={},loss function={}'.format(i, k, b, loss_function(k, b)))
        plt.scatter(x_data, y_data)
        plt.plot(x_data, x_data * k + b, 'r')
        plt.show()

print('最终结果:k={}, b={}'.format(k, b))
plt.scatter(x_data, y_data)
plt.plot(x_data, x_data * k + b, 'r')
plt.show()

在这里插入图片描述
在这里插入图片描述

  • 9
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
手写二维卷积的实现需要掌握以下几个步骤:1. 定义卷积核(filter)的大小和数量;2. 对输入图像进行填充;3. 根据步长和输入大小计算输出大小;4. 对输入图像进行卷积计算;5. 应用激活函数;6. 返回输出。 首先,我们需要导入数据集并进行预处理。以MNIST手写数字识别数据集为例,我们可以将图片像素的灰度值归一化到0到1之间。此外,我们还需要将标签进行独热编码。 定义卷积核的大小和数量:我们可以定义多个卷积核,每个卷积核都是一个小矩阵,通过在输入图像上滑动进行卷积运算。对于卷积核的大小,可以根据实际需求选择。一般情况下,卷积核的大小为3x3或5x5。 对输入图像进行填充:填充可以保持输入图像的大小不变,常见的填充方式有“valid”和“same”。对于“valid”填充方式,不进行填充;而对于“same”填充方式,可以根据卷积核的大小自动计算填充大小,使得卷积后输出图像的尺寸与输入图像的尺寸相同。 根据步长和输入大小计算输出大小:步长决定了卷积核在输入图像上滑动的距离。通过步长的调节,我们可以控制输出图像的大小。对于输入图像的大小为n x n,卷积核的大小为f x f,填充大小为p,步长为s时,输出图像的尺寸可以通过下面的公式计算得到:(n+2p-f)/s+1。 对输入图像进行卷积计算:将卷积核与输入图像进行点乘操作,并将结果相加,可以得到卷积后的输出。 应用激活函数:卷积计算后的输出需要通过激活函数进行非线性映射。常见的激活函数有ReLU、Sigmoid和Tanh等。 训练时间、预测精度和loss的变化可以通过反向传播算法进行优化。我们可以定义损失函数,如交叉熵损失函数,并使用梯度下降算法来更新卷积核的权重参数。通过不断迭代训练集,我们可以减小损失函数的值,提高预测精度。 在实验中,我们可以使用卷积神经网络(CNN)对MNIST数据集进行训练和测试。通过调整网络参数和超参数,我们可以观察到训练时间、预测精度和loss的变化情况。在训练过程中,我们可以使用交叉验证的方式来评估模型的性能。 总结起来,手写二维卷积的实现包括定义卷积核、填充方式、步长、卷积计算、激活函数以及损失函数等步骤。在至少一个数据集上进行实验,我们可以观察到训练时间的变化、预测精度的提高以及loss的减小。这些实验结果可以帮助我们优化卷积神经网络的结构和参数设置。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

rubyw

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值