- 博客(8)
- 收藏
- 关注
原创 梯度下降法求一元线性回归
求解最佳参数,需要一个标准来对结果进行衡量,为此我们需要定量化一个目标函数式,使得计算机可以在求解过程中不断地优化。准备数据:x=np.array([0.18,0.1,0.16,0.08,0.09,0.11,0.12,0.17,0.15,0.14,0.13]),(Regression Analysis)是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。在回归分析中,只包括。利用PyTorch封装类实现梯度下降拟合线性回归。求当Loss最小时的w和b的值。,已知x和y,求w和b。
2024-09-16 17:05:55 385
原创 梯度下降法求最小值
时,每次迭代后,梯度值都在不断的下降。因此选择较小的梯度值作为终止条件是比较自然的,比如希望最后的梯度值小于等于0.01,那么只需要迭代15次;而如果将学习率降低到较小的值,比如0.02,每次迭代后位置确实在降低,但降低的幅度比较小(图4)。,梯度为 2x,起始点位置 x0=10,第一个移动的位置为 x1 等于 x0 减去其在 x0 处的梯度值,得到 x1=-10;假设走了一段走到某处,再次对方向进行判断,继续朝着梯度的反方向移动,重复这个逻辑,不断朝着梯度的反方向运动,到达最低点附近。
2024-09-12 19:58:10 465
原创 PyTorch--Tensor拼接、切分、置换
若为list,按照list元素给分量分配长度;dim:切分的维度)torch.chunk(input,chunks,dim=0):将张量按照dim维度进行切分,若不能整除,则最后一份张量小于其他张量。(tensors:待拼接的张量序列,dim:要拼接的维度,out:输出的张量,如果指定,则返回的张量与out指向同一个地址)torch.stacks(tensors,dim=0,out=None):将张量在新创建的dim维度上进行拼接。(input:待切分的张量,chunks:切分的数量,dim:切分的维度)
2024-09-07 17:41:29 959
原创 PyTorch--Tensor的索引和切片
import torch# tensor索引和切片a = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])b = torch.tensor([[10, 10, 10], [10, 10, 10], [10, 10, 10]])print("a的值:\n", a)# a的值:# tensor([[1, 2, 3],# [4, 5, 6],# [7, 8, 9]])# ----------------索引-
2024-09-07 11:57:39 275
原创 PyTorch--Tensor的创建
使用 torch.Tensor() 创建的 Tensor 的数据类型默认为 torch.float32(CPU/GPU类型为FloatTensor)。也可以使用 torch.DoubleTensor()、torch.IntTensor() 等其他张量类型的构造函数创建 Tensor 实例。Tensor,即张量,是PyTorch中的基本操作对象,可以看做是包含单一数据类型元素的多维矩阵。torch.Tensor 表示张量一个类,可以通过它的构造函数直接创建 Tensor 实例。
2024-09-06 19:07:37 431
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人