自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 torch_sparse安装

前往该网站把对应的版本下载下来,放在“anoconda/pkgs”或"miniconda3/pkgs"中。

2023-11-11 16:53:32 586 1

原创 pytorch DDP 分布式训练

解决方法:将device_ids设为list解决方法:parser.add_argument(“–local_rank”, type=int, default=0, required=True, help=‘local rank for DistributedDataParallel’)问题原因:在这个错误是由于训练参数分布存在错误,某些参数没有参与训练导致。解决方法:把之前的问题解决即可。http://zhuanlan.zhihu.com/p/76638962http://zhuanlan.zhihu

2023-11-07 23:03:31 290

原创 6、单层卷积网络

一个单层神经网络的例子(卷积层)上图是一个单层卷积网络的图像,输入三维数据的大小为6×6×3,两个滤波器的大小为3×3×3。通过滤波器对输入数据进行遍历,会得到两个4×4大小的输出图像,如下图所示:通过将两个4×4的输出数据进行叠加,我们则得到最终4×4×2的输出数据。以上的卷积是在视图层面进行的,从上图可以看出,滤波器的层数须与RGB图像的通道数相同(皆为3),若将这个过程表示在神经网络中,则每一个部分所代表的参数如下图所示:上图所示,输入部分,即a[0]a^{[0]}a[0]大小为6×6

2020-05-14 14:03:34 655

原创 5、深层神经网络块、超参数

此次主要学习了在搭建一个深层神经网络模块时,需要注意到哪些内容,本文将通过下图进行说明:上图描述的是一个深层神经网络模型正向和反向传播的过程。每一个方框代表着一个隐藏层。从图中得出,有几处要点需要注意:(1)正向传播过程中,需要将每一层的z[l]、w[l]、b[l]z^{[l]}、w^{[l]}、b^{[l]}z[l]、w[l]、b[l]进行缓存,方便反向传播时使用(尤其是在编写代码时须注...

2020-04-25 23:10:42 211

原创 深度神经网络中的维度问题

1、单一样本时的维度问题在上图中,l=5l=5l=5正向传播的过程即为:z[1]=w[1]x+b[1]z^{[1]}=w^{[1]}x+b^{[1]}z[1]=w[1]x+b[1]其中,z[1]z^{[1]}z[1]的维度为(3,1),x即a[0]a^{[0]}a[0]的维度为(2,1),由此可知w[1]w^{[1]}w[1]的维度为(3,2),则b[1]b^{[1]}b[1]的维度为(...

2020-04-20 11:29:41 1151

原创 3、深度神经网络学习笔记

一、什么是深度神经网络通常将逻辑回归函数以及下述的双层神经网络(输入层不算)定义为浅层神经网络,因为它不具备学习的能力。将一些多层且复杂的神经网络定义为深度神经网络。浅层神经网络模型:深度神经网络模型一些符号的定义:在下面的描述中,这些符号将被运用到n[l]n^{[l]}n[l]:代表第lll层的节点数,l=1l=1l=1是第一个隐藏层,输入层为第0层。a[l]a^{[l]}a...

2020-04-19 23:18:34 275

转载 数学公式

csdn数学公式

2020-03-29 17:34:06 75

原创 神经网络学习笔记DAY2

@吴恩达神经网络学习DAY2一、向量化向量化的目的主要是减少for循环,在此项应用中,可以通过python/numpy中的np.not进行向量之间的点乘、np.sum进行矩阵之间相加等等。。。向量化的运算速度比for 循环快百倍有余。二、logistic回归成本函数证明为什么要用这样一个函数作为成本函数呢?首先我们定义了样本结果:y^=σ(wT+b)\hat y=\sigma(w^T...

2020-03-29 17:31:12 92

原创 nn学习笔记

@吴恩达神经网络学习DAY1回顾一下logistic回归方程:一、logistic回归模型可以如下表示:这是在只有一种样本的情况下(x,y)为样本,x为输入参数,y为基本真值,即为每个样本的真实输出结果;w是样本中的特征(如像素等),是一个n维的向量; y^\hat yy^​为算法的输出值,它的结果因满足于y^≈y\hat y\approx yy^​≈y;二、logistic回归的损失函...

2020-03-24 22:44:39 233

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除