自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 pytorch学习笔记——5.2Pytorch中MLP分类模型

在MLP分类器的分析过程中,可以分为数据预处理和网络训练以及可视化部分,其中数据预处理部分会针对数据是否进行标准化处理进行单独分类,主要是用于分析数据标准化对于MLP网络训练的重要性。

2022-08-24 09:59:34 3469 3

原创 pytorch学习笔记——4.2Pytorch中训练过程的可视化

网络训练过程的可视化主要是帮助使用者监督所搭建的网络的训练过程,以期获得更有效的训练效果。在4.1中我们已经定义了一个简单的卷积神经网络,本节中我们将以该网络为例使用HiddenLayer库来可视化网络的训练过程。...

2022-08-18 19:36:17 2358 1

原创 pytorch学习笔记——3.6~3.7Pytorch中定义网络的方式以及模型保存和加载方法

在Pytorch中提供了多种高搭建网络的方式,我们这里会以一个简单的全连接神经网络作为例子来介绍pytorch中定义网络的两种方式:Module以及Sequential。在本文中我们将使用boston房价数据,分别使用Module以及Sequential两种方式来定义一个简单的全连接神经网络,并用于网络模型的训练。在最后我们会介绍模型的保存和加载的方法。...

2022-08-18 12:23:09 969

原创 pytorch学习笔记——3.5Pytorch中网络参数的初始化方法

对于搭建的网络,一般情况下我们使用默认的参数初始化就可以获得比较稳定的结果,但我们如果了解常用的参数初始化方法并加以使用,在某些情况下可以提高模型的精度。

2022-08-03 00:04:07 4537 1

原创 pytorch学习笔记——4.1Pytorch中网络结构的可视化

深度学习网络通常具有比较深的层次结构,因此需要可视化工具将建立的深度学习网络结构层次化的展示出来。本文中我们首先定义一个简单的CNN网络对MNIST数据进行分类,并通过PytorchViz库进行网络的可视化处理。...

2022-07-30 23:48:11 956 1

原创 pytorch学习笔记——2.5Pytorch中数据操作和预处理

在torch.utils.data模块中包含一些常用的数据预处理的操作,比如数据的读取、切分、准备等,通过使用这些类,我们可以对高维数组、图像等各种类型的数据进行预处理,以便在深度学习模型中使用。在本文中,我们主要介绍回归模型和分类模型在高维数组和图像数据上的相关预处理与数据准备工作。......

2022-07-27 21:33:01 2114

原创 pytorch学习笔记——3.4防止过拟合的办法

过拟合是由于模型过于精确的匹配了特定的训练数据集,导致模型不能良好的拟合其他数据或预测未来的结果,我们可以通过一些手段来防止过拟合。

2022-07-25 13:45:14 1295

原创 pytorch学习笔记——2.4torch.nn模块简介

torch.nn模块包含torch为我们准备好的各种层,方便我们调用以构建网络。我们主要介绍卷积层、池化层、激活函数层、循环层、全连接层等的相关使用方法。

2022-07-22 13:48:37 6356

原创 简述Pytorch多卡训练原理与实现

简述Pytorch多卡训练原理与实现

2022-07-11 23:08:57 5527

原创 pytorch学习笔记——2.2张量(上)

主要介绍张量的数据类型与张量的生成的基本知识点

2022-07-09 23:15:14 806 1

spambase.csv垃圾邮件数据集

实验数据集:垃圾邮件数据集(http://archive.ics.uci.edu/ml/datasets/Spambase)。请从spambase.csv读入数据。 数据集基本信息如下:样本数: 4601,特征数量: 57, 类别:1为垃圾邮件,0为非垃圾邮件。

2022-08-21

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除