深度学习
文章平均质量分 88
原理+实战相结合
暮光之程mcg
这个作者很懒,什么都没留下…
展开
-
LeNet-5网络训练
● 用特定值填充列表初始化:在训练开始前就确定了列表的长度,简化了在训练过程中更新列表的逻辑,因为不需要担心列表长度问题。这意味着每个列表的长度已经确定为 num_epochs,并且在训练过程中,你可以直接通过索引访问和更新这些列表的元素,而不需要在列表末尾追加元素。这种方式是将每个epoch计算得到的平均损失和准确率作为新的元素追加到列表的末尾。● 空列表初始化:更灵活,可以动态地追加元素,但需要手动管理列表的长度,确保在训练结束时列表的长度与 num_epochs 一致。Python写程序注意缩进!原创 2024-07-22 19:17:43 · 848 阅读 · 0 评论 -
AlexNet网络模型
模型测试的时候,要加载模型测试的函数呢,否则,不会报错,但没有结果显示,记住哦,测试的时候。每一张的识别的类别情况,就需要注释掉加载模型测试的函数,把模型推理的部分拿出来。需要进行模型推理,需要注意的是,这一部分需要注释掉加载模型测试的函数。train.py需要改的,导入模型,输入尺寸,数据处理部分,模型实例化。记住现在的参数总量,下一篇文章,有一个奇怪的问题,不知道是什么原因?上面没有报错情况下,便会得到网络的各层的情况,及参数的总数。模型推理,单张分类的时候,就不需要加载模型测试的函数哦。原创 2024-07-27 11:25:08 · 520 阅读 · 0 评论 -
如何用Visio绘制神经网络结构图!
简单的入门神经网络图二维平面神经网络图三维立体神经网络图。原创 2024-07-26 14:50:49 · 624 阅读 · 0 评论 -
VGG16-D
池化层是感受野大小,它没有池化核这一说法VGG网络全家桶参数个数徒增基本在全连接层,因此大多都会对全连接层进行处理,以使得尽可能地避免过拟合。块内部的卷积结构相同,即操作相同,需要注意的是,每一层的卷积之后都有一个激活函数(ReLU)原创 2024-07-29 13:46:58 · 1040 阅读 · 0 评论