深度学习
文章平均质量分 75
深度学习的相关知识
gz7seven
研究生,主要研究计算机视觉,图像处理,深度学习,医疗图像(近红外与CT图像)处理,图像配准
展开
-
图像分割unet系列------TransUnet详解
transformer简介与实际应用中的思考原创 2023-08-21 23:08:57 · 3373 阅读 · 3 评论 -
目标检测YOLO系列------YOLO V1
目标检测YOLO系列------YOLO V11、YOLO V1详解 YOLO V1是YOLO系列的开山鼻祖,他的思路是开创性的。本文重点讲一下它的思路以及自己的一些思考。1、YOLO V1详解 目标检测算法发展的相当迅速,尤其是近几年,他的发展历程大体如下:...原创 2022-02-23 11:03:59 · 2925 阅读 · 0 评论 -
目标检测YOLO系列------YOLO简介
目标检测YOLO系列------YOLO简介1、为什么会出现YOLO算法2、YOLO算法会逐渐成为目标检测的主流吗 YOLO以及各种变体已经广泛应用于目标检测算法所涉及到的方方面面,为了梳理YOLO系列算法建立YOLO系列专题,按照自己的理解讲解YOLO中的知识点和自己的一些思考。本文是开篇之作,首先简单介绍一下YOLO算。1、为什么会出现YOLO算法 目标检测算法发展的相当迅速,尤其是近几年,他的发展历程大体如下: 从2012年的AlexNet开始,目标检测算法在深度学习领域开原创 2022-02-15 18:24:47 · 4241 阅读 · 0 评论 -
目标检测算法的大体框架-------backbone、head、neck
在基于深度学习算法的目标检测算法其实大体上都是由三部分组成的,即backbone、head、neck。整个算法的设计流程基本都是:输入->backbone->neck->head->输出。1、具体含义backbone 骨干网络也称为主干网络,主要用于特征提取,提取图片中的信息;head 检测头,主要用于预测目标的种类和位置(bounding boxes);...原创 2021-10-11 14:04:57 · 3700 阅读 · 0 评论 -
One-Stage与Two-Stage区别
在基于深度学习算法的目标检测算法主要分两类:One-Stage与Two-Stage。One-Stage与Two-Stage是两种不同的思路,其各有各的优缺点,本文做一个简单的讲述。1、思路简述One-Stage 主要思路:直接通过卷积神经网络提取特征,预测目标的分类与定位;Two-Stage 主要思路:先进行区域生成,即生成候选区域(Region Proposal),在通过卷积神经网络预测目标的分类与定位;2、优缺点优缺点One-StageTwo-Stage原创 2021-10-09 15:04:01 · 16945 阅读 · 1 评论 -
一文读懂分类算法的评价指标
在机器/深度学习分类任务中,评价模型性能的指标有很多种,在本文中将详细简介一下各个指标的含义。1、模型评价术语 在本文中我们假设是二分类问题,即只分两类:正例(positive)和负例(negative)。那么,在实际预测中就会存在以下几种情况:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被预测为正例的实例数,这个在医学中称为真阳性;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被预测为正例的实例数,这个在医学原创 2021-09-16 18:29:34 · 951 阅读 · 0 评论 -
图像分割UNet系列------UNet3+(UNet3plus)详解
UNet3+发表于2020年的ICASSP,它是对UNet非常重要的改进,它的性能我认为是可以超过UNet++的,至少在我的使用过程中我会直接使用UNet3+,而不是UNet++。1、UNet3+解读 UNet3+解读有很多文章,自己本来想好好捋一下发在这里,后来发现有两本篇文章相当的好,所以自己偷点懒不在写了,把文章连接发在这,大家真的可以好好看看:UNet++解读 + 它是如何对UNet改进 + 作者的研究态度和方式...原创 2021-09-10 09:13:56 · 22893 阅读 · 17 评论 -
图像分割UNet系列------UNet++详解
图像分割unet系列------UNet++详解1、UNet++主要目标 UNet++发表于2018年中期,它也是UNet非常重要的改进版本之一,我认为也是最直接的改进版本。当然,UNet++在论文中主要是用息肉(polyp)、肝脏(liver)和细胞核(cell nuclei)等医学图像分割进行实验。1、UNet++主要目标...原创 2021-08-17 18:33:47 · 8039 阅读 · 2 评论 -
图像分割UNet系列------Attention Unet详解
图像分割unet系列------Attention Unet详解1、Attention Unet主要目标2、Attention Unet网络结构 Attention Unet发表于2018年中期(比Res-UNet要早一些),它也是UNet非常重要的改进版本之一。当然,Attention Unet同样也是应用在医学图像分割领域,不过文章主要是以胰脏图像分割进行实验与论证的。1、Attention Unet主要目标 作者在摘要与简介中很清楚的表明了要解决的问题以及要达到的目标。具体如下所示:原创 2021-08-12 13:12:40 · 45173 阅读 · 23 评论 -
图像分割UNet系列------Res-UNet详解
图像分割unet系列------Res-UNet详解1、Res-UNet要解决的问题2、Res-UNet主要网络结构3、引发的思考 Res-UNet发表于2018年,是UNet非常重要的改进版本之一。当然,Res-UNet同样是应用在医学图像分割领域-----视网膜血管分割。1、Res-UNet要解决的问题 作者在文章的简介中就提到了视网膜血管分割任务的主要难点和挑战,这也是Res-UNet重点解决的问题,具体如下所示(直接翻译):小血管缺失:位于血管末端的小血管有时甚至人眼也难以分辨原创 2021-08-10 18:47:24 · 38640 阅读 · 11 评论 -
图像分割UNet系列------UNet详解
图像分割unet系列------UNet详解1、UNet网络结构2、UNet网络结构高性能的原因分析 UNet最早发表在2015的MICCAI上,到2020年中旬的引用量已经超过了9700多次,估计现在都过万了,从这方面看足以见得其影响力。当然,UNet这个基本的网络结构有太多的改进型,应用范围已经远远超出了医疗图像的范畴。我们先从最原始的UNet网络模型开始讲解。1、UNet网络结构 开始时,UNet主要应用在医疗图像的分割,并且快速成为大多做医疗影像语义分割任务的baseline,而后原创 2021-08-06 22:32:51 · 16961 阅读 · 0 评论 -
GoogleNet------超经典神经网络结构解读
GoogleNet------超经典神经网络结构解读与PyTorch实现1、GoogleNet网络结构 在上文中详细介绍了经典神经网络VGGNet,但是同年获得ImageNet冠军分类任务的是GoogleNet。GoogleNet相比VGGNet,网络结构更深,其拥有22层(一说为27层,此时应该包括了池化操作)。GoogleNet虽然比VGGNet网络结构深,但是参数相对要少很多,具体下文进行介绍与说明。1、GoogleNet网络结构 GoogleNet的网络结果从感觉上确实是比VGGN原创 2021-07-23 16:12:10 · 1086 阅读 · 2 评论 -
VGGNet------超经典神经网络结构与PyTorch实现
VGGNet------超经典神经网络结构1、VGGNet网络结构2、VGGNet网络结构的优缺点 在上文中详细介绍了经典神经网络AlexNet,它为神经网络的发展打开了一片天地。VGGNet可以说是经典中的经典,它是所有学习深度学习的同学们都必须熟知网络。VGGNet是AlexNet的升级版,本文将详细介绍VGGNet的网络结构与相应的优缺点。1、VGGNet网络结构 VGG有众多版本,主要包括VGG11、VGG11-LRN、VGG13、VGG16-1、VGG16-3和VGG19,首先我原创 2021-07-09 10:59:05 · 1168 阅读 · 1 评论 -
AlexNet网络结构详解(含各层维度大小计算过程)与PyTorch实现
AlexNet网络结构详解(含各层维度大小计算过程)1、AlexNet之前的思考2、AlexNet网络结构3、AlexNet网络结构的主要贡献 在上文中详细介绍了第一个神经网络LeNet,但是在其提出20年的时间里并没有引起学者和各研究机构的重视,随机机器学习的兴起,LeNet网络基本被遗忘了。而真正打破机器学习和传统特征提取方法限制的深度神经网络就是本文要讲述的AlexNet。1、AlexNet之前的思考 在AlexNet网络问世之前,大量的学者在进行图像分类、分割、识别等工作时,主要是原创 2021-07-08 10:18:31 · 83653 阅读 · 18 评论 -
LeNet------识别手写数字图像的经典卷积神经网络与PyTorch实现
LeNet------识别手写数字图像的经典卷积神经网络1、LeNet简介1.1 卷积模块1.2 全连接模块2、LeNet主要贡献3、LeNet网络结构PyTorch实现1、LeNet简介LeNet的网络结构如下图所示。 由上图可以看出,LeNet模型主要有两部分组成:卷积模块(红色区域)与全连接模块(绿色区域)。而在卷积模块中主要是由卷积操作与最大池化层。1.1 卷积模块 在卷积层块中,每个卷积层都使用5×55\times 55×5的窗口,并在输出上使用sigmoid激活函数。第一原创 2021-07-06 14:16:41 · 1342 阅读 · 0 评论 -
深度学习中特征提取的本质
深度学习中特征提取的本质什么是特征通道内特征通道间特征通道信息融合什么是特征 传统的图像处理或是计算机视觉中的图像特征主要包括颜色特征、边缘特征、形状特征、纹理特征等。颜色特征主要有颜色直方图算法,边缘特征主要有sobel、canny等算法,形状特征主要是特征点(sift)、HOG特征、Haar特征等,纹理特征主要有LBP、灰度共生矩阵等。那深度学习的特征主要包括什么呢? 深度学习中的学习实际上就是对“特征”的学习,权重是对特征的有效表达。而深度学习的特征主要是在黑盒子中进行,当然我们可以原创 2021-05-10 17:55:16 · 4279 阅读 · 0 评论 -
MLP-Mixer简介和一些想法
最近Google Research的Brain Team又发表了重磅文章,纯MLP架构------MLP-Mixer,这个团队即原来的ViT团队,实力强横。作者通过与ViTs模型(包含ViT、HaloNet、BiT)和CNN模型(NFNet、MPL、ALIGN等)做了对比,效果还是不错的。总体设计思路整体架构如下图所示: 其整体思路为:先将输入图片拆分成多个patches(每个patche之间不重叠),通过Per-patch Fully-connected层的操作将每个patch转换成原创 2021-05-07 17:31:36 · 7751 阅读 · 10 评论 -
pytorch动态调整学习率之Multistep策略
在过去的文章中讲到学习率的动态调整问题,同时在《影响网络模型性能的主要因素》这篇文章中提到,根据经验学习率的调整最好的方法是Step和Multistep,已经讲过了epoch_step策略,下来讲一下Multistep策略。 首先讲一下Step和Multistep的区别。这两种方法都是step对学习率进行操作,但是二者还是有一定的区别的。最主要的区别就是:Step策略是根据固定的步长对学习率进行调整,而Multistep策略则是根据非均匀步长对学习率进行调整。一般情况下,这两种方法都是根据步原创 2021-05-07 11:32:07 · 2366 阅读 · 0 评论 -
影响网络模型性能的主要因素
在上一节中讲到,从AlexNet到VGG的过程可以看出,深度增加确实对模型的性能有较大的提升。但是,在其过程中VGG随着网络模型深度的增加准确度反而降低,这就说明,模型性能的影响因子不可能只来自于网络的深度。也就是说,并不是网络深度越深模型的性能就越好,当网络深度达到临界状态时,再盲目加大模型的深度,模型性能反而会降低。那影响模型性能的主要因素有哪些呢?主要有5个因素,如下所示:网络深度;学习率的设计策略;最优化方法;卷积核的设置;其他因素;1、网络深度 网络深度上文已经讲过原创 2021-04-28 17:51:33 · 2227 阅读 · 0 评论 -
深度学习需要更深网络结构的原因
从近些年来深度学习的发展看,深度学习模型结构越来越复杂,越来越丰富,同样网络深度也随之增加,由此引发了很多猜测,比如为什么需要更深的网络结构?更深的网络结构就使算法的性能一定很好吗?本文大概说一下前一个问题,后面在讨论第二个问题。1、引发此问题的模型 本人认为正真让学者开始重视网络深度的模型应该是VGG模型的出现,当然以前也有学者提出过增加网络深度的问题,但是让学者普遍接受“深度增加可以提升网络模型性能”是由于VGG的出现。当然,VGG的出现也引发了第二个问题,此处不进行分析。 A原创 2021-04-25 17:59:43 · 1622 阅读 · 1 评论 -
vim常用命令
在服务器的使用上,编辑文件或是代码一般情况下使用 Vim 的概率极高。Vim 的学习曲线是非常陡的,一开始学习的时候,面对很多的操作命令要去记住,常常望而却步。但是只要记住一些常用的命令,加之在工作中坚持使用 Vim 进行编辑,勤加使用,而后就可以得心应手了。本人常用的命令做了总结,基本都是最简单最常用的,具体如下表:光标移动(Cursor Movement)命令作用h,j,k,lh表示往左,j表示往下,k表示往上,l表示往右Ctrl+f上一页Ctrl+b下一页原创 2021-03-17 16:50:41 · 174 阅读 · 2 评论 -
BN,LN,IN,GN的比较
众所周知,Normalization会控制数据的尺度分布,有助于模型训练,常见的Normalization主要有BN(BatchNormalization),LN(LayerNormalization),IN(InstanceNormalization),GN(GroupNormalization)这4种。本文不讲述具体的原理,只对这四种方法进行简单的比较,有不足的地方希望大牛们指正。谢谢!首先,在进行对比之前先讲一个问题------深度网络中的数据维度。深度网络中的数据维度一般是(N,C,H,W)(N,原创 2021-03-05 15:05:47 · 1001 阅读 · 0 评论 -
pytorch动态调整学习率之epoch_step策略
上篇文章中讲到动态调整学习率之Poly策略,本次讲解另一个较为常用的策略,即训练过程中随着epoch的增加根据设定的epoch_stepepoch\_stepepoch_step对学习率进行衰减操作,具体公式如下所示:lr=base_lr×0.1epochint(num_epoch/epoch_step)lr = base\_lr \times {0.1^{\frac{{epoch}}{{{\mathop{\rm int}} (num\_epoch/epoch\_step)}}}}lr=base_lr×0原创 2021-03-05 10:44:05 · 2266 阅读 · 1 评论 -
pytorch动态调整学习率之Poly策略
在进行深度学习训练过程中学习率是优化时非常重要的一个因子,通常情况下,在训练过程中学习率都是要动态调整的,通常学习率会逐渐衰减。本文讲解其中一个策略------Poly策略。Poly是一种指数变换的策略,具体公式如下所示:lr=base_lr×(1−epochnum_epoch)powerlr = base\_lr \times {\left( {1 - \frac{{epoch}}{{num\_epoch}}} \right)^{power}}lr=base_lr×(1−num_epochepoch原创 2021-03-04 17:47:23 · 15449 阅读 · 2 评论 -
训练集、验证集、测试集以及交验验证的理解
在人工智能机器学习中,很容易将“验证集”与“测试集”,“交叉验证”混淆。 一、三者的区别 训练集(train set) —— 用于模型拟合的数据样本。验证集(development set)—— 是模型训练过程中单独留出的样本集,它可以用于调整模型的超参数和用于对模型的能力进行初步评估。 ...转载 2020-09-17 16:56:10 · 709 阅读 · 0 评论 -
非线性激活函数在网络模型中存在的必要性
在深度学习的任何模型中,非线性的激活函数都是非常常见的,其主要包括sigmoid、tanh、Relu、Leak Relu、softPlus、softmax等。这些激活函数基本都具有非线性、可微性、单调性等特性。那么,神经网络模型中为什么一定需要非线性的激活函数呢?非线性激活函数存在的必要性体现在哪些方面呢?我们进行如下的分析。首先,我们要认识到非线性激活函数对模型的学习、理解复杂特征等具有重要作用。其次,不使用非线性激活函数或是采用线性激活函数,输出的信号就是一个简单的线性函数,而线性函数由一级多项式构原创 2020-09-17 16:46:48 · 532 阅读 · 0 评论 -
随机梯度下降(SDG)与批量梯度下降(BDG)的区别
随机梯度下降(SDG)与批量梯度下降(BDG)是梯度下降算法中非常重要的两种方法,两种算法在数据处理上都是比较极端的,具体如下图所示:方法特点BDG1、采用所有数据进行梯度下降操作; 2、在样本较多即数据量较大时训练速度很慢SDG1、SDG使用一个样本进行梯度下降操作;2、训练速度很快;3、由于采用一个样本运算,因此有可能得到的不是全局最优解;4、由于使用一个样本操作导致迭代的方向变化很大,因此不能很快的收敛到局部最优解鉴于以上方法的极端性,于是有了小批量梯度下降原创 2020-09-17 15:44:30 · 1986 阅读 · 0 评论 -
pytorch中的损失函数------BCELoss和BCEWithLogitsLoss
在进行pytorch编写程序过程中,会发现loss有两种相对较相似的或是看起来就是一类loss的函数,即BCELoss和BCEWithLogitsLoss,下面简单的描述一下。首先,BCELoss创建一个标准来度量目标和输出之间的二元交叉熵,即对一个batch里面的数据做二元交叉熵并且求平均。BCELoss函数的形式如下:CLASS torch.nn.BCELoss(weight=None, size_average=None, reduce=None, reduction='mean')其中,原创 2020-09-17 10:21:19 · 3255 阅读 · 0 评论 -
PR曲线详解
目录PR曲线概念precision(精准率)和recall(召回率)PR曲线功能说明PR曲线概念PR曲线中的P代表的是precision(精准率),R代表的是recall(召回率),其代表的是精准率与召回率的关系,一般情况下,将recall设置为横坐标,precision设置为纵坐标。precision(精准率)和recall(召回率)上述中介少了PR曲线的实质代表为precision(精准率)和recall(召回率),但是这二者是什么呢?下面咱们进行相关的讲述。首先,我们了解一下混淆矩阵,如下表原创 2020-08-13 08:54:38 · 67247 阅读 · 12 评论 -
MaskRCNN源码解读
MaskRCNN源码解读https://github.com/matterport/Mask_RCNN这个是一个基于Keras写的maskrcnn的源码,作者写的非常nice。没有多余的问文件,源码都放在mrcnn中,readme里面有详细的介绍,为了了解maskrcnn的运行流程,最好的办法就是将代码边运行边调试。从samples下面的coco文件开始运行:前面首先会加载一些配置文件的数据,暂时用不到没必要去...转载 2020-07-27 10:48:42 · 448 阅读 · 0 评论 -
win10系统下轻松安装cuda9.0,cudann7.0
win10系统下轻松安装cuda9.0,cudann7.0欢迎使用Markdown编辑器一、安装CUDA:二、配置cudann欢迎使用Markdown编辑器首先在开始说明一点:CUDA只能在NVIDIA的GPU上运行,而且只有进行大量并行计算的时候才能发挥CUDA的作用。cuDNN(CUDA Deep Neural Network library),是NVIDIA打造的针对深度神经网络的加速库,是一个用于深层神经网络的GPU加速库。如果你要用GPU训练模型,cuDNN不是必须的,但是一般会采用这个加速库原创 2020-07-24 10:10:21 · 692 阅读 · 0 评论 -
激活函数------sigmoid、tanh和ReLU
激活函数------sigmoid、tanh和ReLU激活函数的作用常见的三种激活函数激活函数的作用激活函数的主要作用是在神经网络中引入非线性因素。常见的三种激活函数这三种激活函数的公式分别为:sigmoid:f(x)=11+e−xf(x)=\frac{1}{1+e^{-x}}f(x)=1+e−x1tanh:f(x)=ex−e−xex+e−xf(x)=\frac{e^x-e^{-x}}{e^x+e^{-x}}f(x)=ex+e−xex−e−xReLU:f(x)=max(0,x)f(x)=m原创 2020-07-23 21:47:09 · 701 阅读 · 0 评论 -
欠拟合和过拟合简介
欠拟合和过拟合简介机器/深度学习的基本问题是利用模型对图像、语音、数字等数据进行拟合。学习的目的是对未曾在训练集合出现的样本能够正确预测。在进行如下讲解之前先简单地介绍几个概念:模型对训练集数据的误差称为经验误差,对测试集数据的误差称为泛化误差。模型对训练集以外样本的预测能力就称为模型的泛化能力,追求这种泛化能力始终是机器与深度学习的目标。过拟合(overfitting)和欠拟合(underfitting)是导致模型泛化能力不高的两种常见原因,都是模型学习能力与数据复杂度之间失配的结果。“欠拟合”的主原创 2020-07-22 22:34:11 · 4531 阅读 · 0 评论 -
空间变换网络(Spatial Transformer Networks)
2015, NIPS**Max Jaderberg, Karen Simonyan, Andrew Zisserman, Koray Kavukcuoglu **Google DeepMind为什么提出(Why)一个理想中的模型:我们希望鲁棒的图像处理模型具有空间不变性,当目标发生某种转化后,模型依然能给出同样的正确的结果什么是空间不变性:举例来说,如下图所示,假设一个模型能准确把左图中的人物分类为凉宫春日,当这个目标做了放大、旋转、平移后,模型仍然能够正确分类,我们就说这个模型在这个...转载 2020-07-17 10:07:28 · 360 阅读 · 0 评论 -
DRN - 扩张残留网络(图像分类和语义分割)
DRN - 扩张残留网络(图像分类和语义分割)原标题 | Review: DRN — Dilated Residual Networks (Image Classification & Semantic Segmentation)作者 | Sik-Ho Tsang翻译 | had_in(电子科技大学)编辑 | Pita本文回顾了普林斯顿大学和英特尔实验室的DRN(扩张残差网络)。2016年ICML发布了用于语义分割的DilatedNet后,作者提出了DRN,不仅可以提高语义分割效果,还可以原创 2020-06-16 17:31:39 · 3015 阅读 · 0 评论 -
EfficientPS 论文翻译-------第三部分:网络结构
EfficientPS论文翻译-------第三部分:网络结构在这一节中,我们首先对我们提出的EfficientPS体系网络结构做一个简要的概述,然后详细介绍它的每一个组成部分。我们的网络遵循自顶向下的布局,如图2所示。它由一个带有双向特征金字塔网络(FPN)的共享主干网络组成,然后是任务特定的语义分割和实例分割头。我们在EfficientNet (Tan和Le, 2019)架构的基础上构建了我们共享主干网络的编码器(用红色表示)。它由可移动的bottleneck (瓶颈)单元组成,采用复合缩放来均匀缩放原创 2020-06-04 14:42:40 · 1414 阅读 · 0 评论 -
EfficientPS论文翻译-------第二部分:相关工作
EfficientPS: Efficient Panoptic Segmentation论文翻译-------第二部分:相关工作全景分割是最近提出的一个场景理解问题(Kirillov et al, 2019),它统一了语义分割和实例分割的任务。对于这些子任务,已经提出了许多方法,但是只有少数方法被引入来处理全景分割的连贯场景理解问题。该领域的大部分工作都是基于语义分割和实例分割的进展,因此我们首先回顾了最近提出的用于这些密切相关的子任务的方法,然后介绍了用于全景分割的最新方法。**语义分割:**近年来,原创 2020-06-01 15:09:43 · 616 阅读 · 0 评论 -
EfficientPS论文翻译-------第一部分
EfficientPS论文翻译-------第一部分摘要 自主机器人工作的场景对其胜任工作至关重要。这种场景理解需要识别交通参与者的实例以及通用的场景语义,而这些语义可以通过全景分割任务有效地解决。在本文中,我们介绍了高效的全景分割(Efficient entps)架构,它由一个共享主干组成,它高效地编码和融合了语义丰富的多尺度特征。我们加入了一个新的语义头,将精细和上下文特征连贯地聚合在一起,并加入了一个新的变种Mask R-CNN作为实例头。我们还提出了一种新的全景融合模块,该模块集成了我们的eff原创 2020-05-29 16:52:02 · 1070 阅读 · 0 评论 -
Batch Normalization详解
Batch Normalization 学习笔记原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》,这个算法目前已经被大量的应用,最新的文献算法.转载 2020-05-13 08:34:49 · 184 阅读 · 0 评论 -
DenseNets与ResNet的本质区别
DenseNets与ResNet的本质区别假设一张图片x0{x_0}x0在卷积网络中传播。网络共有 L 层,每一层都有一个非线性转换函数 Hℓ(∙){H_\ell }\left( \bullet \right)Hℓ(∙)(定义为三种操作的组合函数,分别是:BN、ReLU和卷积),其中 $\ell 表示第几层。用表示第几层。用表示第几层。用{x_\ell }$ 表示第 $\ell $层的输出。传统的前馈网络是将 $\ell-1 $ 层的输出xℓ−1{x_\ell -1 }xℓ−1作为 $\e原创 2020-05-11 16:25:36 · 1251 阅读 · 0 评论