自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(32)
  • 收藏
  • 关注

原创 NNDL 作业12:第七章课后题

2022-12-10 21:46:30 42

原创 NNDL 实验八 网络优化与正则化(3)不同优化算法比较

2022-12-08 22:10:25 28

原创 NNDL 作业11:优化算法比较

2022-12-03 22:21:04 45

原创 NNDL 实验七 循环神经网络(3)LSTM的记忆能力实验

2022-12-01 22:23:23 232

原创 NNDL 作业9:分别使用numpy和pytorch实现BPTT

2022-11-26 21:08:20 395

原创 NNDL 作业10:第六章课后题(LSTM | GRU)

2022-11-26 20:32:21 217

原创 NNDL 实验七 循环神经网络(2)梯度爆炸实验

Wu

2022-11-23 19:35:30 160

原创 NNDL 实验七 循环神经网络(1)RNN记忆能力实验

2022-11-17 21:18:24 48

原创 NNDL 作业8:RNN - 简单循环网络

2022-11-13 00:10:44 228

原创 NNDL 实验六 残差网络实现CIFAR10

CIFAR-10数据集包含了10种不同的类别、共60,000张图像,其中每个类别的图像都是6000张,图像大小均为32×3232\times3232×32像素。CIFAR-10数据集的示例如图5.15所示。图5.15:CIFAR-10数据集示例将数据集文件进行解压:直接将文件加入到kaggle,kaggle自动解压迁移学习,顾名思义,就是要进行迁移。放到人工智能和机器学习的学科里,迁移学习是一种学习的思想和模式。

2022-11-10 23:16:32 213

原创 NNDL 实验六 卷积神经网络(4)ResNet18实现MNIST

resnet18实现minist

2022-11-02 13:39:28 113

原创 NNDL 作业7:第五章课后题(1×1 卷积核 | CNN BP)

2022-10-30 14:48:22 169

原创 NNDL 实验六 卷积神经网络(3)LeNet实现MNIST

pytorch LeNet实现Minist

2022-10-29 09:51:34 690 2

原创 NNDL实验六卷积神经网络(2)基础算子

这次实验练了练习英语,发现英语还没有退步,自己调用pytorch框架卷积了一波,实现了老师给的demo,同时遇到了一些问题,我们可以发现,conv2d的输入和卷积的权重都应该是四维的,其对应意义如下图片:[输入的图片的数量,输入图片的通道数,每个通道数的高,每个通道数的宽]卷积核参数初始化:[输出通道数,输入的通道数,每层卷积核的高,每层卷积核宽]。这算是一个新知识了,有了这个公式以后,卷积就跟做数学题解析几何一样套公式就可以了。

2022-10-23 20:29:14 582

原创 NNDL 作业6:基于CNN的XO识别

生成如下9×99\times 99×9的X型图像:卷积核生成生成课上需要的如下三种卷积核:卷积操作卷积是对输入信号经过持续的转换, 持续输出另一组信号的过程.,通过卷积生成新函数。输入是固定的蓝色方框和红色框,红色框滑动作为滑动窗口,输出的黑线,代表的是滑动窗口与蓝色框的重叠面积。前向传播:选图像区域的最大值作为该区域池化后的值。反向传播:梯度通过最大值的位置传播,其它位置梯度为0前向传播:计算图像区域的平均值作为该区域池化后的值。反向传播:梯度取均值后分给每个位置。减少维度

2022-10-22 18:50:43 629

原创 十万个为什么:为什么Sobel算子长这样??

2022-10-20 19:35:05 70

原创 NNDL 实验六 卷积神经网络(1)卷积

2022-10-20 19:12:20 227

原创 NNDL 作业5:卷积

2022-10-15 21:45:12 289

原创 NNDL 实验五 前馈神经网络(3)鸢尾花分类

由于隐藏层过多会造成过拟合,同时会造成时间的大幅浪费,这里我们不再增加隐藏层的层数,我们只增加隐藏层神经元的个数。神经元的个数为4,学习率为0.2神经元的个数为8,学习率为0.2神经元的个数为8,学习率为0.1神经元的个数为4,学习率为0.1经过多次测试后,我们选取训练效果较好的几组参数,通过实验结果我们发现先,运用该模型的时候,隐藏层神经元的个数为4,学习率为0.2的时候拟合效果最好,在验证集上准确率达到了1.0。。超参数为 学习率 为0.3,含有一层隐藏层,隐藏层神经元为4个,

2022-10-13 20:18:54 716 1

原创 NNDL 作业4 第四章作业

这次的问题相对于上次来说比较简单,大部分时间都用在了自己的拓展知识面上,对L0、L1、L2正则化系数的了解,上课讲的一下常用的激活函数的了解,例如ELU等。这次4-2问题费了我较多的时间,使用ReLU激活函数,出现了梯度消失的现象,,后来经过同学的指点迷津,我才发现。

2022-10-08 18:08:28 332

原创 NNDL 实验五 前馈神经网络(2)

附上这次实验的kaggle连接,前馈神经网络实验2,上面有全套运行的python代码,这次是学习自动梯度计算和优化问题,主要是确定模型后,寻找让模型最优的办法。虽然我们能够通过模块化的方式比较好地对神经网络进行组装,但是每个模块的梯度计算过程仍然十分繁琐且容易出错。在深度学习框架中,已经封装了自动梯度计算的功能,我们只需要聚焦模型架构,不再需要耗费精力进行计算梯度。torch提供了类,来方便快速的实现自己的层和模型。模型和层都可以基于`nn扩充实现,模型只是一种特殊的层。继承了。

2022-10-06 19:16:22 444

原创 NNDL第三次作业

2022-10-01 17:30:24 380 1

原创 NNDL实验五前馈神经网络-二分类任务

深度学习实验五

2022-09-28 18:59:03 727 1

原创 NNDL 第三章课后作业

2022-09-22 16:04:12 84 1

原创 NNDL实验四 线性分类

前言:在做这次实验的时候是在Kaggle上运行的,因为Kaggle上有小小的免费的GPU加速,同时小小的体会到了在训练模型的时候,GPU加速和CPU加速之间的一种区别。Kaggle是一个很好的网站,有各式各样的大佬。同时Kaggle上已经导入了机器学习中的很多包,例如torch、tensorflow等等,非常方便。kaggle官网分类是机器学习中最常见的一类任务,其预测标签是一些离散的类别(符号)。根据分类任务的类别数量又可以分为二分类任务和多分类任务。线性分类是指利用一个或多个线性函数将样本进行分类。常用

2022-09-21 17:41:59 109

原创 NNDL0作业1:第二章课后习题

NNDL 作业1:第二章课后习题习题 2-1 分析为什么平方损失函数不适用于分类问题 , 交叉熵损失函数不适用于回归问题.明确了解分类和回归。才能知道什么是合适,什么是不合适的。首先明确分类和回归的区别     我认为的分类,是把一堆东西,分成好几堆东西,且每堆东西都有他正确的类别,分类的好坏,取决于正确的类别的数目的多少,而回归,则是要找出一个描述这堆东西的函数,使所有的东西都尽可能都用我这个函数描述出来,所以回归的好坏不仅仅取决于已经可以用我这个函数进行描述

2022-09-15 15:55:06 442 1

原创 NNDL 实验三 线性模型

实验三 线性回归

2022-09-14 21:02:54 410

原创 NNDL 实验二pytorch入门

第三部分: 是一个崭新的部分,之前机器学习老师给的是已经处理好的数据集,没有进行数据预处理这方面,这部分也算了解了一些,处理缺失值有两种办法,一种是插值,一种是删除,插值的化可以用均值插值,也可以用中位数进行插值。删除直接删除其他元素就好了,对于一些语义,不是用数字进行表示的,例如玫瑰花、西兰花,可以转换为数据种类长度的的维度的变量,然后用[1,0]这种表示,例如[1,0]表示的是玫瑰花。以张量x和y进行广播为例,x的shape为[2, 3, 1,5],张量y的shape为[3,4,1]。

2022-09-06 10:33:55 325 1

原创 大数据的相关内容

大数据(英语:Big data),又称为巨量资料,指的是在传统数据处理应用软件不足以处理的大或复杂的数据集的术语数据也可以定义为来自各种来源的大量非结构化或结构化数据。从学术角度而言,大数据的出现促成广泛主题的新颖研究。这也导致各种大数据统计方法的发展。大数据并没有统计学的抽样方法;它只是观察和追踪发生的事情。因此,大数据通常包含的数据大小超出传统软件在可接受的时间内处理的能力。由于近期的技术进步,发布新数据的便捷性以及全球大多数政府对高透明度的要求,大数据分析在现代研究中越来越突出。——维基百科。...

2022-08-31 17:39:07 2106

原创 NNDL实验一 numpy

NNDL实验一作业

2022-08-30 20:49:50 274 1

原创 无约束算法--直接法

直接法优点可以不用计算梯度,直接得到最优值。1坐标轮换法思想:n维坐标系的坐标方向即为下一次迭代的方向。例如:二维f(x,y) = x+y;搜索方向为p0(1,0);p1(0,1);流程如下:收敛的方向不一定是下降方向,收敛速度可能也比较慢,和最速下降法一样,出现锯齿状、讲完原理,咱们自然而然(naturally)的就要讲简单的例题来进行应用了说完例题咱们说说什么样的题适合他,正所谓美女配枭雄。坐标轮换法正如枭雄一样,适合沉鱼落雁,变量较少,函数较好的题目。但是如果不够美的花,枭雄自

2022-04-25 23:02:39 289

原创 最优化方法---最速下降法

最速下降法的思想根据函数本身的表达式,找到梯度下降最快的地方,确定下一个x;(这里我们当作xk+1)小拓展:csdn博客中将下标用~括起来,.上标用^括起来(表示次幂 x)xk+1 xk

2022-04-08 10:20:41 298

训练CNN网络所需的XO数据集

文档中所用XO数据集,是俺们老师上课给的。

2022-10-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除