PyTorch
文章平均质量分 59
少年白马
向阳奔跑,逆风成长
展开
-
【PyTorch】深度学习实战之逻辑回归
PyTorch 深度学习实战之逻辑回归视频教学链接博客参考链接线性模型:前面几章节,我们都是做的线性模型,通过给定的数据集(1,2),(2,4),(3,6),构建一个函数y=2*x+0,然后只要给定一个x,就会对应输出一个y,但是实际上问题并没有那么简单,其实我们输出的并不是一个确定的数字,而是它是某一个数字的概率,如果将它归类,它是某个数的概率很大 ,那么我们宏观上就定义这个数就是这个数,就是说选择一个概率最大的数字对它进行分类,比如这里的7和9,选一个概率最大的进行输出如何实现逻辑回归:逻辑原创 2022-03-18 17:07:38 · 1633 阅读 · 0 评论 -
【PyTorch】KNN实战之MNIST数据分类与归一化处理
KNN的算法实现首先创建演示数据集import numpy as npimport matplotlib.pyplot as plt# 给出训练数据以及对应的类别def createDataSet(): group = np.array([[1.0, 2.0], [1.2, 0.1], [0.1, 1.4], [0.3, 3.5], [1.1, 1.0], [0.5, 1.5]]) labels = np.array(['A', 'A', 'B', 'B', 'A', 'B'原创 2022-03-16 14:50:12 · 4536 阅读 · 0 评论 -
【PyTorch】深度学习实战之PyTorch实现线性回归
PyTorch实现线性回归可调用对象:如果要使用一个可调用对象,那么在类的声明的时候要定义一个call函数class Foobar: def __init__(self): pass def __call__(self,*args,**kwargs): pass其中参数*args代表把前n个参数变成n元组,**kwargsd会把参数变成一个词典,这些都是python的基础语法def func(*args,**kwargs): print(原创 2022-03-15 23:17:23 · 4920 阅读 · 0 评论 -
【PyTorch】深度学习实战之反向传播
PyTorch实现反向传播反向传播主要体现在l.backward(),调用该方法后w.grad由None更新为Tensor类型,且w.grad.data用于后序w.data的更新l.backward()会把计算图中所有需要梯度的地方都会求出来,然后把梯度都存在对应待求的参数中,最终计算图被释放实现代码:import torchx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]w = torch.tensor([1.0])w.require原创 2022-03-14 20:30:16 · 1798 阅读 · 0 评论 -
【PyTorch】深度学习实战之梯度下降算法
梯度下降算法:可能只会找到局部最优点随机梯度下降算法:随机梯度下降更容易找到全局最优点,类似于快速排序选基点,随机选取能够提高找到全局最优点的概率梯度下降算法实现代码:import numpy as npimport matplotlib.pyplot as pltfrom matplotlib import cmfrom mpl_toolkits.mplot3d import Axes3Dx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]原创 2022-03-03 19:58:53 · 443 阅读 · 0 评论 -
【PyTorch】深度学习实战之线性模型
本文主要是参考B站刘二大人的视频讲解本文的主要内容是PyTorch深度学习实践的线性模型。类似于初中的求函数:先给出几个点,让你求出函数,然后再给一个x坐标,让你求出y坐标,或者是类似于高中的最小二乘法,但是在深度学习领域我们需要去找损失函数为0的w值,而不是人眼或者手动算出来损失函数:平均平方误差(MSE):实现代码:import numpy as npimport matplotlib.pyplot as pltx_data = [1.0, 2.0, 3.0]y_data = [原创 2022-03-02 11:21:15 · 238 阅读 · 0 评论