![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch学习
文章平均质量分 61
江 东
脚踏实地
展开
-
SOFTMAX回归模型
SOFTMAX函数的脉络梳理什么是SOFTMAX回归函数交叉熵损失函数什么是SOFTMAX回归函数·softmax回归跟线性回归⼀样将输⼊特征与权᯿做线性叠加·与线性回归的⼀个主要不同在于,softmax回归的输出值个数等于标签⾥的类别数·SOFTMAX是一个单层的神经网络结构图如下:运算过程如下:即我们通过神经网络预测,然后得到相应的一个分数,此时我们希望我们得到的分数是一个概率:此时我们就应该选取一个合适的方案,来将预测的分数来转化为标签的概率,那么最合适的肯定是softmax了,原创 2022-05-07 13:33:02 · 2094 阅读 · 0 评论 -
d2lzh_pytorch包离线安装
安装d2lzh_pytorch原创 2022-05-07 11:00:38 · 2196 阅读 · 1 评论 -
线性回归的简洁实现
简洁实现线性回归原创 2022-04-25 23:45:55 · 3106 阅读 · 0 评论 -
史上最详细的Pytorch+CUDA+CUDNN的安装(GPU版)
完整地安装Pytorch,CUDA,CUDNN,并附带教程,欢迎查看!!!原创 2022-04-25 11:18:19 · 28797 阅读 · 15 评论 -
Pytorch线性回归的详细实现
线性回归单层神经网络-线性回归代码实现:线性回归是⼀个单层神经⽹络 输⼊分别为x1和x2,因此输⼊层的输⼊个数为2,输⼊个数也叫特征数或特征向量维度,输出层的输出个数为1,输出层中的神经元和输⼊层中各个输⼊完全连接,因此,这⾥的输出层⼜叫全连接层,即一个简单地线性回归。 假设我们有三个预测数据:转化为矩阵运算:即代码实现:首先导入所需要的包:import torchimport randomimport numpy as npfrom tqdm im原创 2022-04-21 23:22:26 · 2313 阅读 · 0 评论 -
Pytorch自动求梯度
求梯度微分Pytorch自动微分微分通常我们见到的微分方法有两种:·符号微分法:·数值微分法:Pytorch自动微分对于一个Tensor,如果它的属性requires_grad 设置为 True,它将开始追踪(track)在其上的所有操作我们定义一个初始的tensor并且requires_grad 设置为 True:x = torch.ones(2, 2, requires_grad=True)print(x)tensor([[1., 1.], [1., 1.]]原创 2022-04-19 09:40:33 · 2294 阅读 · 0 评论 -
Pytorch中Tensor的创建
Tensor的基本的几种创建方式,欢迎查看原创 2022-04-17 23:31:41 · 2009 阅读 · 0 评论 -
使用anacond prompt安装pytorch(CPU版)
使用anacond prompt安装pytorch使用anacond prompt安装pytorch使用anacond prompt安装pytorch·首先去anaconda官网安装anaconda,然后打开anaconda prompt(pycharm配置环境略过):在命令行输入:Conda create –n pytorch python=3.8来创建一个关于pytorch的单独环境这里的‘pytorch’是环境名称,python=3.8是版本,都可以根据需求自行修改然后就可以进入我们创原创 2022-04-16 23:20:58 · 2676 阅读 · 1 评论