pytorch搭建网络
文章平均质量分 78
本专栏用来记录本人用pytorch搭建各种网络的笔记
JU HE
一个专注于机器学习、深度学习的AI炼丹师。
展开
-
pytorch常用内置loss函数与正则化技术(补充小细节)
本博客主要简要记录一下对pytorch内置损失函数的一些理解和正则化技术在pytorch里面是怎么调用的。这就是本文的内容了,主要是很多细节部分需要记录一下。原创 2024-05-13 12:07:46 · 904 阅读 · 0 评论 -
7 pytorch DataLoader, TensorDataset批数据训练方法
后面我们会经常用到这种batch和epoch的训练方法。原创 2024-04-12 16:48:17 · 235 阅读 · 1 评论 -
6-pytorch - 网络的保存和提取
我们训练好的网络,怎么保存和提取呢?总不可以一直不关闭电脑吧,训练到一半,想结束到明天再来训练,这就需要进行网络的保存和提取了。本文以前面博客的网络进行网络的保存和提取,建议先看完上面博客再来看本博客。原创 2024-04-12 15:18:56 · 584 阅读 · 0 评论 -
5-pytorch-torch.nn.Sequential()快速搭建神经网络
本文内容还是基于4-pytorch前馈网络简单(分类)问题搭建这篇的相同例子,只是为了介绍另一种更加快速搭建网络的方法,看个人喜好用哪一种。这里的这种搭建方法是使用**torch.nn.Sequential()**快速搭建,不用我们在继承重写net类了。选择那种方法搭建,看个人喜好,效果完全一样。原创 2024-04-11 23:15:58 · 460 阅读 · 1 评论 -
4-pytorch前馈网络简单(分类)问题搭建
本博客会搭建输入层(2节点),隐藏层(10节点),输出层(2节点)分类问题在我看来可比回归问题复杂多了,在搭建网络前,需要先介绍几个在分类问题里面的常用函数,了解了这几个函数的用法看网络搭建代码才会轻松点。分类与回归相比。网络搭建有一些小的细节需要特别注意哟!具体的细节我写在了代码的注释上面。看到这里,恭喜,监督学习里的分类和回归网络你可以初步搭建网络了。接下来一起搭建更加复杂有趣的网络吧。原创 2024-04-09 11:26:15 · 843 阅读 · 0 评论 -
torch.normal()函数详解
torch.normal()函数说人话解释,官方文档和大多数博客不说人话,本博客保证有基础就一定能看懂,并且相当简单,还有一个例子教怎么用torch.normal()生成服从正态分布的二维数据并可视化出来原创 2024-04-06 14:16:52 · 1272 阅读 · 1 评论 -
3-pytorch搭建一个简单的前馈全连接层网络(回归问题)
终于到搭建神经网络了,开心吧!本博客会根据生成的数据搭建一个输入层节点1,单隐藏层(10节点),输出层(1节点)的前馈神经网络来拟合生成的数据。其中隐藏层使用relu激活函数,输出层不使用激活函数。恭喜,看到这里相信你已经学会怎么用pytorch搭建前馈神经网络了。原创 2024-04-05 23:21:09 · 319 阅读 · 1 评论 -
2-pytorch激活函数
激活函数作用就是将原来线性的变成非线性,让神经网络变的更加强大。本文会介绍神经网络中的常用激活函数,以及其在pytorch里面的接口。关于回归、分类问题是不同类型的激活函数,具体问题具体选择。另外对于前馈神经网络隐藏层一两层激活函数选择应该是任意一个都大概率能达到满意的非线性效果,但是如果超过了2层更多层,就需要思考一下用那个激活函数了,如果选的不好,极大可能导致梯度爆炸或者梯度消失这些头疼的问题在反向传播过程中。原创 2024-04-04 23:29:53 · 256 阅读 · 2 评论 -
1-pytorch基础
在用pytorch进行搭建网络前需要先熟悉一下其中的一些主要API接口,本文会记录一些简单又很常用的接口,方便后续查阅。例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。原创 2024-04-03 11:41:54 · 871 阅读 · 1 评论