小土堆 Pytorch基础
文章平均质量分 61
观看小土堆视频,自写的笔记
哆啦蒙圈
小菜鸡一枚
展开
-
神经网络--优化器
在深度学习中,损失函数是衡量模型预测与实际目标之间差异的指标,而优化器是用来调整模型参数来最小化或者最大化损失函数的算法,通过调整模型参数使得损失函数尽可能地减小;原创 2024-05-10 19:50:39 · 264 阅读 · 0 评论 -
损失函数及反向传播
损失函数(Loss Function)是用来度量模型预测值与真实标签之间差异的函数。它接受模型的输出和真实标签作为输入,并输出一个数值,该数值表示模型预测的错误程度或差异程度。损失函数通常被设计成非负的,当模型预测值与真实标签完全一致时,损失函数达到最小值。原创 2024-05-10 17:35:25 · 433 阅读 · 0 评论 -
搭建小实战和Sequential的使用
"Sequential"是PyTorch中的一个模块,用于构建神经网络模型。它允许你按照顺序将不同的神经网络层组合在一起,形成一个网络模型。你可以把它想象成一个管道,数据从一个层流向另一个层,最终经过整个管道的处理得到输出。简而言之,就是方便对数据进行处理,代码更加简洁。原创 2024-05-10 14:20:10 · 369 阅读 · 0 评论 -
线性层及其他层的介绍
当构建神经网络时,线性层(Linear Layer)是其中一个基本的组件之一,它在PyTorch中也称为全连接层(Fully Connected Layer)。除了线性层外,还有许多其他常用的神经网络层.原创 2024-05-10 14:19:37 · 564 阅读 · 0 评论 -
非线性激活
非线性激活函数是在神经网络中使用的一种函数,它的作用是引入非线性特性,使得神经网络可以学习和表示更加复杂的函数关系。在神经网络中,激活函数通常被应用于每个神经元的输出,将输入信号进行转换后输出给下一层。原创 2024-05-10 13:22:01 · 327 阅读 · 0 评论 -
最大池化的使用
在神经网络中,池化层是比较重要的,是提取信息的重要操作,可以去掉一些不重要的信息,从而减少计算量;原创 2024-05-10 10:30:01 · 228 阅读 · 0 评论 -
卷积层的基本操作
*在PyTorch中,卷积是一种常用于深度学习的数学运算,特别是在处理图像和视频数据时。卷积运算通过将卷积核(或滤波器)滑动应用于输入数据(如图像),来提取特征或进行图像处理。这种方法在卷积神经网络(CNNs)中尤为重要,因为它能够有效地识别图像中的局部模式,如边缘、纹理等。**原创 2024-05-10 10:17:16 · 408 阅读 · 0 评论 -
神经网络基本框架nn.Module
在PyTorch中,nn.Module是构建所有神经网络的基础类。几乎所有的神经网络模型都会继承这个类来构建。nn.Module提供了一系列功能和属性,使得模型构建、参数管理、模型保存和加载等操作变得更加简单和直观。原创 2024-04-26 20:14:14 · 326 阅读 · 1 评论 -
torchvision中数据集的使用(Pycharm)
我们在学习深度学习基础的时候,经常会因为想测试自己写的对不对,但是找不到数据集而感到烦恼,其实,Pytorch为我们提供了一些基础的数据集(当然在以后模型训练中还是要自己从网上找数据集的);原创 2024-04-26 10:32:19 · 313 阅读 · 1 评论 -
Transforms在Pytorch中的使用(Pycharm)
在PyTorch中,transform的作用主要是进行数据预处理和增强。这对于深度学习模型的训练非常重要,因为模型的性能很大程度上依赖于输入数据的质量和格式。transform提供了一系列的工具,使得数据可以在加载到模型之前被适当地转换和标准化。这些转换可能包括但不限于:_3. 标准化:_通过标准化处理(Normalize),可以将图像数据的每个通道的像素值缩放到给定的均值和标准差,这有助于模型的收敛和提高训练稳定性。_4. 数据增强:通过随机的图像转换(如随机裁剪、旋转、翻转等),可以人为地增加数据集原创 2024-04-26 09:55:52 · 963 阅读 · 1 评论 -
可视化工具TensorBoard在Pytorch中的用法(Pycharm)
在人工智能领域中,机器学习随处可见,而机器学习通常涉及在训练期间可视化和度量模型的性能。其中TensorFlow的开源工具套件Tensorboard就是一个常见的可视化工具。虽然他是TensorFlow的一部分,但是是可以进行独立安装的,并且适用于Pytorch;原创 2024-04-23 21:01:51 · 892 阅读 · 0 评论