![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch深度学习
文章平均质量分 73
「 25' h 」
梦很远,她很优秀。
展开
-
pytorch循环神经网络(七)
pytorch循环神经网络(七)原创 2022-04-24 16:59:01 · 1135 阅读 · 0 评论 -
pytorch卷积神经网络(六)
卷积神经网络原创 2022-04-23 22:15:35 · 1570 阅读 · 0 评论 -
pytorch实现分类问题(五)
import matplotlib.pyplot as plt from sklearn.datasets import load_digits fig = plt.figure() n=1 for i in range(1,9): for j in range(1,9): ax = fig.add_subplot(8,8, n) ax.matshow(load_digits().images[n]) n+=1 ax.set_xtick原创 2021-08-16 10:02:18 · 1191 阅读 · 0 评论 -
pytorch实现简单的逻辑回归(五)
逻辑回归pytorch实现逻辑回归pytorch实现多特征回归 pytorch实现逻辑回归 逻辑回归是什么 从的分变成是否通过的二分类问题: 在线性数据上加上了非线性的数据处理sigmoid 在神经网络层到变化: 单个样本点的loss损失变化情况: 样本总体loss的变化情况 import torch class LogisticRegressionModel(torch.nn.Module): def __init__(self): super(LogisticRegres原创 2021-08-15 20:01:51 · 250 阅读 · 0 评论 -
pytorch实现线性回归(四)
pytorch实现线性回归 在之前我们都提到了批量梯度下降和随机梯度下降各有优缺点,我们通常采用折中的方式对数据样本随机分成若干等分(随机),在通过这些若干数据簇进行批量梯度下降原创 2021-08-15 17:22:19 · 112 阅读 · 0 评论 -
pytorch之反向传播(三)
反向传播反向传播算法原理关于层与层之间的顺序 反向传播算法 反向传播算法,简称BP算法,适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上。BP网络的输入输出关系实质上是一种映射关系:一个n输入m输出的BP神经网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。它的信息处理能力来源于简单非线性函数的多次复合,因此具有很强的函数复现能力。 看下面这张图,当我们面对这样复杂的数据关系时,如果想用解析式写出他们之间的关系,可能很难达到,那么我们想是否有这样一个算原创 2021-08-14 21:35:19 · 475 阅读 · 2 评论 -
pytorch预备之梯度下降(二)
梯度下降梯度下降原理局限性一维数据的梯度代码实现批量梯度下降随机梯度下降 在上一章提到关于每次确定w和b的参数寻找比较好的模型参数,假设每一个参数要用20个数来比较取出最好的结果,那么两个参数就要20*20个循环,那么当我们数据有大量的特征时,这样遍历暴力的寻找显然不能满足快速寻找结果。那么我们就要用到寻找最优参数的方法:梯度下降 梯度下降 原理 在求解损失函数的最小值时,可以通过梯度下降法来一步步的迭代求解,得到最小化的损失函数和模型参数值。反过来,如果我们需要求解损失函数的最大值,这时就需要用梯度上升法原创 2021-08-14 20:07:35 · 145 阅读 · 0 评论 -
pytorch 预备之线性模型(一)
线性模型一元线性均方误差w代码实现w b代码实现 一元线性 关于线性模型用一个以为函数进行举例: 给出一组数据通过取不同的w值对于模型进行拟合,得出不同w值下的模型效果,再做出适当w值的选择: 红线就是我们数据真正的曲线,蓝线和黑线是不同w取值时拟合的曲线结果。我们可以直观的看出模型效果,但是对于计算机来说需要用一个评估指标对模型进行选择: 均方误差 这是一个变量对应的损失值,就是通过拟合结果和真实值之差的平方进行模型评估: 对于整个数据集来说我们通常用均方误差对模型进行评估,就是每一个数据拟合值和真实原创 2021-08-14 15:31:37 · 152 阅读 · 0 评论