![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
文章平均质量分 81
WXiujie123456
小菜鸟一个呜呜呜
展开
-
如何查看本机显卡
如何查看本机显卡?1、使用快捷键Win+R打开运行命令窗口,输入“dxdiag”并点击【确定】按钮,若有窗口弹出请选择“否”;2、切换到“显示”,就能查看显卡的芯片型号、显存大小(1024MB=1GB)等配置信息。参考:链接记录一下自己的显卡信息。我的电脑是联想小新pro14 2021...原创 2021-10-27 11:13:28 · 3324 阅读 · 3 评论 -
Pytorch实现文本情感分类流程
文章目录基本概念介绍文本情感分类准备数据集文本的序列化构建模型模型的训练与评估完整代码基本概念介绍tokenization:分词,每个词语就是一个token分词方法:转化为单个字(常见)切分词语N-gram:准备词语特征的方法,N-gram一组一组的词语,其中N表示能够一起使用的词的数量(可以使用jieba类,需要用到再去查)文本的向量化:one-hot:使用稀疏的向量表示文本,占用空间多,每一个token使用一个长度为N的向量表示,N表示词典的数量Word embeddin原创 2021-09-13 09:37:09 · 637 阅读 · 0 评论 -
使用Pytorch实现手写数字识别
使用Pytor## 标题ch实现手写数字识别思路和流程分析准备数据,这些需要准备DataLoader构建模型,这里可以使用torch构造一个深层的神经网络模型的训练模型的保存,保存模型,后续持续使用模型的评估,使用测试集,观察模型的好坏准备训练集和测试集准备数据集的方法前面已经讲过,但是通过前面的内容可知,调用MNIST返回的结果中图像数据是一个image对象,需要对其进行处理。为了进行数据的处理,我们需要学习torchvision.transform的方法torchvision.t原创 2021-09-07 17:15:42 · 2481 阅读 · 2 评论 -
pytorch中的数据加载(dataset基类,以及pytorch自带数据集)
目录pytorch中的数据加载模型中使用数据加载器的目的数据集类Dataset基类介绍数据加载案例数据加载器类pytorch自带的数据集torchvision.datasetsMINIST数据集的介绍pytorch中的数据加载模型中使用数据加载器的目的在前面的线性回归模型中,我们使用的数据很少,所以直接把全部数据放到模型中去使用。但是在深度学习中,数据量通常都非常多、非常大的,如此大量的数据,不可能一次性的在模型中进行向前的计算和反向传播,经常我们会对整个数据进行随机的打乱顺序,把数据处理成一个个的原创 2021-08-29 20:16:14 · 1238 阅读 · 1 评论 -
Pytorch中常见的优化算法介绍
目录常见的优化算法介绍梯度下降算法(batch gradient descent,BGD)随机梯度下降法(Stochastic gradient descent,SGD)小批量梯度下降(Mini-batch gradient descent,MBGD)动量法AdaGradRMSPropAdam常见的优化算法介绍梯度下降算法(batch gradient descent,BGD)每次迭代都需要把所有样本都送入,这样的好处是每次迭代都顾及了全部的样本,做的是全局最优梯度下降:全局最优随机梯度下降法原创 2021-08-17 17:59:05 · 669 阅读 · 0 评论 -
Pytorch实现线性回归
目录向前计算requires_grad和grad_fn梯度计算手动实现线性回归Pytorch完成模型常用的APInn.Mudule优化器类optimizer损失函数线性回归完整代码在GPU上运行代码向前计算对于Pytorch中的一个tensor,如果设置它的属性.requires_grad为TRUE,那么它将会追踪对于该向量的所有操作。或者可以理解为,这个tensor是一个参数,后续会被计算梯度,更新该参数。计算过程假设有以下条件(1/4表示求均值,xi中有4个数),使用torch完成其向前计算的过原创 2021-08-17 15:40:10 · 380 阅读 · 0 评论 -
Pytorch之梯度下降和方向传播理论介绍
梯度梯度:是一个向量,学习(参数更新)的方向,导数+变化最快的方向。梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。梯度下降步骤(常用三种方法见后面小节)算出梯度,梯度的计算公式:gradu=aₓ(∂u/∂x)+aᵧ(∂u/∂y)+az(∂u/∂z)更新下一个取值点:wn=wn-1-α*gradun-1梯度下降的一般求法:批量梯度下降法BGD批量梯度下降法(Batch Gr原创 2021-08-17 15:29:57 · 524 阅读 · 0 评论 -
pytorch之张量的相关介绍
目录张量是什么:各种数值数据张量的创建使用Python中的列表或者序列使用numpy中的数组创建tensor使用torch的API创建tensortorch.Tensor和torch.tensor的区别torch.Tensortorch.tensor()Pytorch中tensor的常用方法获取tensor中的数据(当tensor中只有一个元素可用):tensor.item()转化为numpy数组:t1.numpy()获取形状:tensor.size()形原创 2021-08-16 20:36:35 · 332 阅读 · 0 评论 -
pytorch学习笔记
张量相关介绍梯度下降和方向传播pytorch实现线性回归未完待续························原创 2021-08-16 20:32:07 · 234 阅读 · 0 评论