关于后端开发学习
文章平均质量分 56
JDBC+MAVEN
狄哥博客
一个致力于让自己的痛苦经历不再发生在他人身上的无名小卒。
展开
-
kaggle叶子分类比赛(易理解)
使用了Resnet50model = models.resnet50(weights=None) # 使用预训练的ResNet-50# 首先获取全连接层的输入特征数量# 使用Dropout层和新的全连接层创建一个新的Sequential模块。原创 2024-05-07 14:57:43 · 361 阅读 · 0 评论 -
现代神经网络总结(AlexNet VGG GoogleNet ResNet的区别与改进)
1.VGG,NIN,GoogleNet的块结构图对比(注意:无AlexNet)->神经网络越深,越复杂总能改进精度吗?在上面三层神经网络之后得到的疑惑。这些块带来的区别与细节。原创 2024-04-28 13:47:55 · 796 阅读 · 0 评论 -
批量归一化(部分理解)
引入可学习的尺度参数(𝛾γ)和偏移参数(𝛽β)作用。原创 2024-04-25 15:11:55 · 196 阅读 · 0 评论 -
练习9-LeNet(沐神代码简要解析)
这里唯一我不确定的问题是:沐神的这段正确吗?1.评估模型准确率的函数。2.GPU上的训练函数。原创 2024-04-13 10:26:46 · 159 阅读 · 0 评论 -
练习8-步长与填充与多输入输出与池化层(总结李沐代码与部分理解)
通道:我更愿意从特征方面去理解,首先卷积操作相当于找出卷积核对应的特征,多个卷积核做多个卷积就相当于找出不同标准下的不同特征。故多通道数输出的其实就是不同标准下的不同特征图。较大的特征图需要更多的计算资源来处理。通过减小特征图的尺寸,可以降低网络的计算复杂度,使得模型更快、更高效。填充:对输入层的长度宽度的扩展。提取特征,减少过拟合(重要原因)注意:池化层并不会改变通道数。步长:卷积核移动时的长度.目的:控制特征图的尺寸。原创 2024-04-11 15:53:21 · 242 阅读 · 0 评论 -
GPU环境安装与虚拟环境安装(适用于Windows下的李沐GPU)
之前我是用的都是VMware的虚拟机且安装的是cpu的pytorch版本,因为想要使用GPU,最终实现了在Windows上使用GPU,并且相关原理也在参考文章或视频内,可以通过原理自行挑选自己所需的配置并安装。原创 2024-04-08 15:53:02 · 854 阅读 · 0 评论 -
练习7-卷积层(李沐代码简要解析)
沐神视频:https://www.bilibili.com/video/BV1L64y1m7Nh?p=3&vd_source=302f06b1d8c88e3138547635c3f4de52沐神代码:https://zh-v2.d2l.ai/chapter_convolutional-neural-networks/conv-layer.html线性回归代码对比值得注意的是函数的区别l.sum().backward():这一行代码会计算损失张量 l 中所有元素的梯度之和,并将这个梯度值反向传播原创 2024-04-05 10:13:53 · 187 阅读 · 0 评论 -
练习6-自定义层与自定义块(李沐代码解析)
1.定义构造函数---初始化各中层和参数2.定义钱箱传播---神经网络通过前向传播函数来定义数据如何在网络中流动。原创 2024-04-04 11:13:06 · 185 阅读 · 0 评论 -
kaggle房价预测(李沐思路解析与各种的坑) 上篇
李沐kaggle视频链接:15 实战:Kaggle房价预测 + 课程竞赛:加州2020年房价预测【动手学深度学习v2】_哔哩哔哩_bilibili李沐kaggle代码链接:4.10. 实战Kaggle比赛:预测房价 — 动手学深度学习 2.0.0 documentation (d2l.ai)李沐kaggle比赛链接:House Prices - Advanced Regression Techniques | Kaggle一周时间,终于算是完成了这个实战项目,这篇文章分为上下,上篇主要是沐神的思路与自原创 2024-04-01 14:29:20 · 453 阅读 · 0 评论 -
练习5-丢弃法(包含部分丢弃法理解)
通过为每层的输入设置概率即第一层 dropout设置为0.2,第一层的输入的每个数据有0.2的概率被丢弃,0.8的概率正常使用。因为不同层的w对数据的要求是不一样的,也许上一层不在过拟合,但下一层仍旧过拟合。通过减少数据量,来减少过拟合。原创 2024-03-23 09:44:49 · 220 阅读 · 0 评论 -
练习4-权重衰减(李沐函数简要解析)
这里初始化出train_iter test_iter 可以查一下之前的获取Fashion数据集后的数据格式与此对应。原创 2024-03-20 18:50:02 · 350 阅读 · 0 评论 -
练习3-softmax分类(李沐函数简要解析)与d2l.train_ch3缺失的简单解决方式
环境为:练习1的环境网址为:https://www.bilibili.com/video/BV1K64y1Q7wu/?原创 2024-03-05 17:56:30 · 354 阅读 · 0 评论 -
练习2-线性回归迭代(李沐函数简要解析)
定义为线性模型且只有一层nn.Sequential() 用于包装层nn.linear(2,1) 用于定义两输入一输出的线性层初始化参数 w,b,lr,epoch,batch_sizenet[0].weight.data.normal 正态分布net[0].bias.data.fill_(0) b赋值定义损失函数 平方误差优化算法 小批量梯度下降 torch.optim.SGD(net.parameters(), lr=0.03)原创 2024-03-02 11:38:08 · 357 阅读 · 0 评论 -
练习1-高端又一般的词云
环境:Ubuntu+python3.6+jupyter notebook词云目的是为了将权重占比高的词语重点显示,从而突出文本内容。代码如下:将西游记的内容勾画出词云。原创 2024-02-29 15:58:21 · 355 阅读 · 0 评论