1 动手学:线性回归、Softmax、多层感知机

1 损失函数和优化函数2 梯度更新方式批量梯度下降对所有样本进行梯度下降,求平均后对参数进行一次优化。随机梯度下降对单个样本点求梯度,对参数进行一次更新。小批量梯度下降将样本分成小批量,对每个小批量的样本求梯度平均值,对参数进行一次更新。梯度更新基本搜索步骤:3 pytorch从零实现线性回归# import packages and modules%matplo...
摘要由CSDN通过智能技术生成

1 线性回归

1.1 损失函数
在这里插入图片描述
1.2 优化函数
本文使用小批量梯度下降算法作为先线性回归的优化函数。
在这里插入图片描述
1.3 梯度下降算法介绍
1.3.1 批量梯度下降
批量梯度下降对所有样本进行梯度下降,求平均后对参数进行一次优化。优点:参数优化过程较为平稳,缺点:耗时。
在这里插入图片描述
1.3.2 随机梯度下降
随机梯度下降对单个样本点求梯度,单个样本点对参数进行一次更新。
在这里插入图片描述
1.3.3 小批量梯度下降
小批量梯度下降算法将样本分成小批量,对每个小批量的样本求梯度平均值,对参数进行一次更新。小批量梯度下降算法结合了批量梯度下降和随机梯度下降的优点。
在这里插入图片描述
在这里插入图片描述
1.3.4 梯度更新基本搜索步骤
在这里插入图片描述
1.4 使用pytorch从零实现线性回归
导入各种包

# import packages and modules
%matplotlib inline
import torch
from IPython import display
from matplotlib import pyplot as plt
import numpy as np
import random

print(torch.__version__)

生成数据集

# 生成数据集,假设是二维线性模型
# set input feature number,2个特征
num_inputs = 2
# set example number,1000个样本点
num_examples = 1000

# set true weight and bias in order to generate corresponded label
true_w = [2, -3.4]
true_b = 4.2

# torch.randn(n1, n2)生成n1*n2大小的标准正态分布随机数
features = torch.randn(num_examples, num_inputs, dtype=torch.float32)
print(features.shape)
# 严格线性的标签
labels = true_w[0]
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值