深度学习基础知识
文章平均质量分 66
记录pytorch和深度学习的学习笔记
兰宵宫
这个作者很懒,什么都没留下…
展开
-
Python使用其它文件夹中的.py文件
在python构建的工程中,A.py 可能要使用 B.py 文件中的函数、或者类、或者变量,如果这两个文件在同一个目录下,只需要在 A.py 中使用 import B 即可,但如果不在同一目录下,则这种方法不可用,将工程下的所有文件放在一个目录下又会显得混乱,那么如何解决这个问题?如下图所示,需要在 func_exam.py 中调用 models 文件夹下的 test_module.py 文件中的类。原创 2023-12-11 11:12:45 · 782 阅读 · 0 评论 -
深度学习常用指令(Anaconda、Python)
深度学习常用指令,便于查阅。原创 2023-11-28 16:51:45 · 683 阅读 · 0 评论 -
李沐pytorch学习-DropOut
DropOut 即丢弃法,一般用于全连接层的隐含层,卷积层一般不用。在训练时随机把一些神经元丢弃,不参与运算,防止过度依赖某个神经元。被丢弃的神经元相关权重此次不参与更新。原创 2023-09-04 11:40:31 · 128 阅读 · 0 评论 -
李沐pytorch学习-BatchNormalization
计算主要涉及如下公式:为可学习的参数,对应新的方差和均值。其中:是一个很小的数,用于防止分母为零# 最好不要与DropOut组合使用# 可以加速收敛,一般不会增加正确率O_0R_0w_1w_0w_0%5Cbeta%5Cepsilon%5Cepsilon。原创 2023-08-27 20:29:02 · 190 阅读 · 0 评论 -
PointNet论文解读及代码详解
PointNet在结构设计时考虑了点云的上述特点,因此在输入点云中点的顺序发生改变时,其输出一定不会改变。此外在少量点缺失或者错误时,也能保证结果的稳定性。PointNet 有两个网络,一是分类,二是分割,分类即输入点云,输出其表达的物体类别。分割即输入点云,将其表达的物体的不同部件分开。原创 2023-08-26 19:33:09 · 775 阅读 · 4 评论 -
李沐pytorch学习-经典CNN的原理及代码实现
AlexNet赢了2012年ImageNet比赛是个更深更大的LeNet∷ ReLu作为激活函数,减缓梯度消失∷ 使用MaxPooling∷ 全连接层后加入了丢弃层(DropOut∷ 进行了数据增强(Data argumentation,截取图片一部分作为新增数据、或者调色温)DropOut:随机使某个神经元失效,以免训练后网络输出过度依赖某个神经元导致过拟合【深度学习】丢弃法(dropout)_苦逼的虾的博客-CSDN博客。原创 2023-08-21 11:24:23 · 684 阅读 · 0 评论 -
李沐pytorch学习-卷积网络及其实现
卷积计算过程如图1所示,即输入矩阵和核函数对应的位置相乘,然后相加得到输出对应位置的数。卷积计算过程该过程可以形象地从图2中展现。二维卷积示意图。原创 2023-08-19 12:58:04 · 1696 阅读 · 0 评论 -
李沐pytorch学习-多层感知机及其实现
介绍多层感知机的定义,原理及pytorch实现。原创 2023-08-16 00:01:03 · 1104 阅读 · 0 评论 -
李沐pytorch学习-矩阵求导
对于的计算结果,根据y和x的维度,可根据下图得到导数的维度图1. 矩阵求导结果维度图对于函数:此时 y 是标量,自变量为矩阵对自变量求导数求导样例如下:图2. 求导样例。原创 2023-08-15 19:47:17 · 183 阅读 · 0 评论