深度学习
文章平均质量分 78
ζั͡ޓއއއ坏尐絯
备战CCIEing
展开
-
深度学习(6):Dataset 和 DataLoader
并实现上述两个方法。原创 2024-09-25 15:11:24 · 274 阅读 · 0 评论 -
深度学习(5):逻辑斯蒂回归Logistic
逻辑斯蒂回归:一种用于二分类问题的模型,使用 Sigmoid 函数将线性组合映射为概率,损失函数为交叉熵损失。交叉熵:衡量两个概率分布之间差异的度量,用于逻辑斯蒂回归等模型的损失函数。KL 散度:衡量两个概率分布之间差异的非对称度量,交叉熵可以视为熵和 KL 散度的组合。关系:在逻辑斯蒂回归中,最小化交叉熵损失等价于最小化真实分布和模型预测分布之间的 KL 散度。原创 2024-09-24 20:36:16 · 728 阅读 · 0 评论 -
深度学习(4):torch.nn.Module
要创建自定义的神经网络模型,需要继承nn.Module构造函数__init__:在这里定义网络的层和子模块。前向方法forward:定义数据如何经过网络进行前向传播。# 定义网络层# 定义前向传播过程return out在大多数情况下,不需要手动实现反向传播函数。PyTorch 的自动求导机制(autograd)会根据前向传播中的操作,自动计算梯度。self.flatten = nn.Flatten() # 将输入展开为一维。原创 2024-09-24 18:49:27 · 1061 阅读 · 0 评论 -
深度学习(3):Tensor和Optimizer
优化器位于 torch.optim 包中,是实现各种优化算法的核心组件。它们的主要功能是调整网络参数以减少计算出的损失值。每一个优化器都继承自 torch.optim.Optimizer,并实现特定的优化策略。Optimizer(优化器):在 PyTorch 中,优化器负责管理和更新模型的参数,特别是在训练过程中根据计算出的梯度来更新参数以最小化损失函数。Tensor(张量):在 PyTorch 中,Tensor 是一种多维数组, 可以在 GPU 上进行高效的数值计算。原创 2024-09-24 18:20:20 · 417 阅读 · 0 评论 -
深度学习(2):梯度下降
但在多变量函数中,梯度是一个向量,其分量是各个单一变量的偏导数。这个向量指向函数增长最快的方向,其向量的模(大小)表示在那个方向上的最大变化率。类似y = ax + b这种单变量的函数来说,导数就是它的斜率,这种情况下可以说梯度就是导数。所以我们沿着梯度的反方向走,这就是下降最快的方向,这样就能够使得损失函数最快的下降了。原创 2024-09-24 17:13:14 · 988 阅读 · 0 评论 -
深度学习(1):基础概念与创建项目
Anaconda 是一个开源的 Python 和 R 语言发行版,主要用于科学计算和数据分析。它集成了大量常用的数据科学包,如 NumPy、Pandas、SciPy 等,并包含 Conda 包管理器,方便环境管理和包依赖。由于其强大的并行计算能力,GPU 被广泛应用于深度学习、科学计算和数据分析等需要高计算量的领域。:由 Google 开发,支持静态和动态图计算,适用于从研究到生产的各个环节。这两个框架都支持 GPU 加速,利用 GPU 的并行计算能力加速深度学习模型的训练和推理。原创 2024-09-23 12:53:02 · 462 阅读 · 0 评论