![](https://img-blog.csdnimg.cn/2019092715111047.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
pytorch-基础篇
文章平均质量分 78
pytorch-基础篇,简单了解pytorch
凉漠
这个作者很懒,什么都没留下…
展开
-
神经网络 torch----使用GPU(cuda)
在训练过程中,要想利用我们的GPU,有两个基本要求。这些要求如下:默认情况下,在创建 PyTorch 张量或 PyTorch 神经网络模块时,会在 CPU 上初始化相应的数据。具体来说,这些数据存在于 CPU 的内存中。原创 2024-06-17 14:17:20 · 514 阅读 · 0 评论 -
神经网络 torch.nn---nn.LSTM()
c_0 是shape=(num_layers*num_directions,batch_size,hidden_size)的张量, 保存着batch中每个元素的初始化细胞状态的Tensor。:长短时记忆网络层,它的主要作用是对输入序列进行处理,对序列中的每个元素进行编码并保存它们的状态,以便后续的处理。i_t, f_t, g_t, o_t分别代表 输入门,遗忘门,细胞和输出门。x_t是上一层的在时刻t的隐状态或者是第一层在时刻t的输入。:当前时间步的输出,也是下一个时间步的输入。c_t是时刻t的细胞状态,原创 2024-06-13 12:20:46 · 1542 阅读 · 0 评论 -
神经网络 torch.nn---nn.RNN()
的shape应该是[batch_size, time_step, feature],输出也是这样。默认是 False,就是这样形式,(seq(num_step), batch, input_dim),也就是将序列长度放在第一位,batch 放在第二位。x_t是上一层时刻t的隐状态,或者是第一层在时刻t的输入。weight_ih_l[k] – 第。weight_hh_l[k] – 第。bias_ih_l[k] – 第。bias_hh_l[k] – 第。偏置, 可学习,形状是。h_t是时刻t的隐状态。原创 2024-06-13 11:49:10 · 826 阅读 · 0 评论 -
神经网络搭建(2)
注意测试时用的模型是CPU还是GPU,前后保持一致。原创 2024-06-06 22:01:08 · 286 阅读 · 0 评论 -
神经网络搭建(1)----nn.Sequential
因此,之后通过第一个线性层,(in_features=64 * 4 * 4, out_features=64)之后使用Flatten。函数将图像展成一列,此时图像尺寸变为:1×(64×4×4),即1×1024。→ 变成32通道,16×16的图像 ( 经过一个5×5的卷积)→ 变成32通道,32×32的图像 (经过2×2的最大池化)→ 变成32通道,16×16的图像 (经过2×2的最大池化)→ 变成32通道,8×8的图像 ( 经过一个5×5的卷积)→ 变成64通道,8×8的图像(经过2×2的最大池化)原创 2024-06-06 21:48:00 · 624 阅读 · 0 评论 -
神经网络---网络模型的保存、加载
正确的调用格式需要复制原模型的类定义。在另一个文件加载该模型,会报错。模型加载(在另一个文件加载)原创 2024-06-06 21:14:17 · 407 阅读 · 0 评论 -
神经网络----现有网络的下载和使用(vgg16)
以下两种方法已经用不了。原创 2024-06-06 21:01:50 · 497 阅读 · 0 评论 -
神经网络 torch.nn---优化器的使用
可以求出神经网路中每个需要调节参数的梯度(grad),可以根据梯度进行调整,达到的作用。下面我们对优化器进行介绍。原创 2024-06-06 20:37:12 · 864 阅读 · 0 评论 -
神经网络 torch.nn---损失函数与反向传播
即我们可以以target为依据,不断训练神经网络,优化神经网络中各个模块,从而优化output。2、−x[class]:在已知图片类别的情况下,预测出来对应该类别的概率x[class]越高,其预测结果误差越小。输出结果为[0.1,0.2,0.3],该列表中的数字分别代表分类标签对应的概率。,每个结果概率都很高,这显然是不合理的。当我们进行反向传播的时候,对每一个节点的参数都会求出一个对应的。个元素对应的差值的绝对值求和,得出来的结果除以。的图片进行分类,其标签的索引分别为。的概率更大,即0.3。原创 2024-06-06 20:18:49 · 983 阅读 · 0 评论 -
神经网络 torch.nn---Linear Layers(nn.Linear)
torch.flatten更方便,可以直接把图像变成一行。torch.reshape功能更强大,可任意指定图像尺寸。以上两行代码都是将图像展开成一行。原创 2024-06-06 16:30:45 · 509 阅读 · 0 评论 -
神经网络 torch.nn---Pooling layers(nn.MaxPool2d)
intortuple) - max pooling的窗口大小。用于设置一个取最大值的窗口,如设置为3,那么会生成一个3×3的窗口stride(intortupleoptional) - 默认值为kernel_size,步幅,和卷积层中的stride一样padding(intortupleoptional) - 填充图像,默认填充的值为0dilation(intortupleoptional) – 一个控制窗口中元素步幅的参数。空洞卷积,即卷积核之间的距离。原创 2024-06-06 14:26:34 · 1213 阅读 · 0 评论 -
神经网络 torch.nn---Non-Linear Activations 非线性激活层
如:input=-1,ReLU(input,implace=True),那么输出后,如:input=-1,ReLU(input,implace=True),那么输出后,,使其训练出一些符合各种曲线或各种特征的模型。换句话来说,如果模型都是直线特征的话,它的。inplace=True,则会自动。非线性变换的目的是为神经网络。inplace=True,则。原创 2024-06-06 16:04:59 · 475 阅读 · 0 评论 -
神经网络 torch.nn---Containers
Containers(容器):神经网络的骨架Convolution Layers:卷积层Pooling layers:池化层Non-linear Activations:非线性激活Normalization Layers:正则化层Recurrent Layers:循环神经网络层。原创 2024-06-06 13:55:28 · 1283 阅读 · 2 评论 -
神经网络 torch.nn---Convolution Layers
torch.nn包含了torch.nn.functional,打个比方,torch.nn.functional相当于开车的时候齿轮的运转,torch.nn相当于把车里的齿轮都封装好了,为我们提供一个方向盘。padding的作用是在输入图像的左右两边进行填充,padding的值决定填充的大小有多大,它的输入形式为一个。输入一个5×5的图像,其中的数字代表在每个像素中的颜色显示。卷积核的步长,可以是单个数字或一个元组 (sh x sw)torch.nn是对torch.nn.functional的一个。原创 2024-06-06 11:50:19 · 1024 阅读 · 0 评论 -
深度学习——TensorBoard的使用
TensorBoard是一个可视化工具,它可以用来展示网络图、张量的指标变化、张量的分布情况等。特别是在训练网络的时候,我们可以设置不同的参数(比如:权重W、偏置B、卷积层数、全连接层数等),使用TensorBoader可以很直观的帮我们进行参数的选择。它通过运行一个本地服务器,来监听6006端口。在浏览器发出请求时,分析训练时记录的数据,绘制训练过程中的图像。是Google开发的一个机器学习可视化工具。记录损失变化、准确率变化等记录图片变化、语音变化、文本变化等。原创 2024-06-05 20:01:09 · 1355 阅读 · 0 评论 -
cuda 11.6 pytorch安装
验证:输入nvcc --version 或者nvcc -V 进行检查。安装相应的CUDA 和CUDANN。原创 2024-05-27 12:17:34 · 1597 阅读 · 0 评论 -
PyTorch 相关知识介绍
PyTorch的相关知识。1、PyTorch和TensorFlow。2、DataLoader和Dataset。3、TensorBoard可视化工具。torchvision。4、Transformer的使用。5、图像处理 PIL.6OpenCV原创 2024-06-05 14:53:57 · 1682 阅读 · 0 评论