![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 88
咆哮的阿杰
吾生也有涯,而知也无涯
展开
-
从RepVgg到MobileOne,含mobileone的代码
重参数化的思想本质上就是利用线性模型的可加性。在工业界就在conv和bn层融合上有所应用。最近几年一直有re-parameter的工作。RepVGG是一个比较好的应用。VGG是直筒式模型,因为没有skip connnection,导致训练更深层的vgg会出现模型的退化。但如resnet等,skip connnect为端上设备增加了运行耗时,在数据的存取上有不小的消耗。因此RepVGG,将重参数的思想融合进来,在训练时,为vgg引入了skip connection,在测试时将skip connection和原创 2022-06-25 15:37:17 · 1627 阅读 · 2 评论 -
Labels4Free: Unsupervised Segmentation using StyleGAN论文解读
入选ICCV2021,官方page website,暂未开源paper还是很有创意的,只是pipeline搭建起来很繁琐,还有很大的改进空间。背景styleGAN等生成对抗网络可以生成逼真的图像,生成器的中间特征已经有了前景和背景的特征学习能力,但目前没有方法研究让GAN生成图像的同时,还生成前景目标的mask。本篇paper正是为了解决该问题。作者基于两种假设前景和背景是独立的,因此独立生成然后组合,也能生成逼真的图像。生成器的中间特征学习到了前背景特征分布,是可以利用起来,用于生成前景目标原创 2021-09-05 23:15:21 · 1026 阅读 · 0 评论 -
transformer中的相对位置偏置的介绍(relative position bias)
前言在很多近期的transformer工作中,经常提到一个词: relative position bias。用在self attention的计算当中。笔者在第一次看到这个概念时,不解其意,本文用来笔者自己关于relative position bias的理解。笔者第一次看到该词是在swin transformer。后来在focal transformer和LG-transformer中都看到它。relative position bias(相对位置偏置)基本形式如下:Attention(Q,K原创 2021-08-23 14:17:56 · 10915 阅读 · 11 评论 -
Designing an Encoder for StyleGAN Image Manipulation论文解读
官方源码和论文地址又是基于StyleGAN用于图像编辑的又一力作!基于StyleGAN做图像编辑,首先要找到隐向量(GAN inversion),这个过程的主流方式有两种:优化隐向量,找寻能重构出指定图像的隐向量。代表有image2style,in-domian GAN。设计一个Encoder,用于将图像映射到StyleGAN的隐空间上。代表有style-encoder。其实还有一种比较小众,利用分类器的思想,步骤也繁琐。代表有interpretGAN。IDEA目前基于styleGAN的图原创 2021-03-25 19:28:02 · 2911 阅读 · 0 评论 -
MAST: A Memory-Augmented Self-Supervised Tracker论文解读和代码剖析
官方代码作者开源的官方代码有一处错误,在代码剖析部分将指出。有人已经在github上提出了issue,作者一直没回应。我也是在阅读代码的时候发现了这个错误。背景VOS任务很少有使用自监督的,即在训练中不借助mask,只用frame image来训练。作者巧妙的在STM的基础上,将value换成frame自身,使用过去帧重构当前帧作为代理任务(proxy),实现自监督的vos。效果还不错,在davis val上是64的J&F。核心思想仍然是采用STM的memory bank的思想。mem原创 2021-01-16 14:32:27 · 692 阅读 · 2 评论 -
U-GAT-IT: 人脸转动漫网络(非配对图像翻译)精华总结
ugatit也是基于cyclegan,需要使用gan loss, cycle loss和idt loss。除此之外,论文还提出了在G和D中使用一个分类器,训练分类器也需要一个loss,叫做cam loss,受类激活映射启发。论文的两个创新点:adaptive Layer Instance normalization(adaLIN)类似于SENet的通道注意力。只不过exciting权重是来自CAM分类器。方法G_A代表从A域往B域转换,D_A代表判别真实的B域和假的B域样本G_A(X)。另外的原创 2021-01-14 22:37:35 · 3489 阅读 · 0 评论 -
Visual Tracking by TridentAlign and Context Embedding论文解读和代码剖析
用于在GPU上实时的目标跟踪新方法,入选ECCV2020官方代码我认为论文有如下特点:相对于simaMask这种孪生网络,作者进行full-frame matching。不在上一帧预测位置expand一个box作为search image。直接用原图作为search的对象。因为没了时间smooth假设,没法在目标邻域截取search image。为了解决在原图存在很多相似目标的情况,作者提出tridentAlign方法,考虑到多尺度,更好的表达时序上的目标尺度变化。使用full-frame se原创 2020-12-25 19:51:45 · 498 阅读 · 0 评论 -
ECCV2020最佳论文RAFT:Recurrent All-Pairs Field Transforms for Optical Flow
最近做光流相关,看了一些监督和无监督自监督的光流估计。今天介绍一下RAFT(监督学习,目前sota)。官方代码背景在RAFT之前,一些有名的光流估计方法,大都遵循金字塔结构+coarse to fine的预测flow的方式。在多个尺度上预测flow,flow层层迭代,逐步细化,分辨率越来越大。作者任务这种范式存在以下问题:粗level预测错了,在后面的更细节的level不好修正对小目标快速移动的情况,很难正确预测训练迭代时间长某些迭代优化的模型,没有把权重复用。RAFT的特点:始终保原创 2020-12-03 18:33:25 · 4234 阅读 · 12 评论 -
Video Object Segmentation with Adaptive Feature Bank and Uncertain-Region Refinement论文解读和代码实践
NeurPIS2020的论文官方代码基础的框架采用STM,但是提出了自适应调整memory bank和一种新颖的refinement操作。MotivationSTM是目前半监督VOS方向的SOTA论文方法,几乎后面的论文都是在STM的基础上改进。作者分析了STM的缺点:在测试的时候,每5帧增加一个memory,如果是长序列,memory bank可能会爆显存。每隔五帧,更新一次memory bank,可能会漏过一些关键帧作者提出Adaptive feature bank(AFB)来自适应原创 2020-11-08 16:00:05 · 938 阅读 · 0 评论 -
BMVC2020 Best Paper: Delving Deeper into Anti-aliasing in ConvNets论文解读
官方代码背景虽然convNets具有平移不变形,但貌似这种平移不变性还不是特别理想。之前的一些研究发现,把图像在不同的位置crop,对裁剪的图像预测,当crop位置不同,图像得到的分类概率也不一样。对于其他下游任务,如检测,分割,平移都会带来一些错误的预测(aliasing)。此篇论文目的就是减弱这种因平移带来的错判问题(anti-aliasing)。方法作者首先从信息论奈奎斯特采样率来引入话题。仅仅把第一行的二进制右移一位,然后采样,得到的数值能发生很大的差异。因此,下采样对信息是有破坏作用的原创 2020-10-03 20:23:37 · 1043 阅读 · 0 评论 -
SFNet: Learning Object-aware Semantic Correspondence论文解读
这是CVPR19年的论文,通过语义流找寻两张图像中相同类别的目标(但不同实例)的对应点。官方代码首先说明两点,不同于一些特征点匹配的方法,该方法是找不同场景下(两种图像)中具有相同类别的目标之间的对应点。基于特征点匹配,比如superglue,是在同一场景下(视频的不同帧)中找寻点对点的关系。但SFNet是不同场景下。比如下图,前两列给出两个场景,都包含人物和摩托车。后两张就是语义相似的点到点的连线。简单解释语义流SFNet不是第一篇提到语义流的文章。语义流自然和语义相关。在SFNet中,通过特原创 2020-10-02 20:05:44 · 6280 阅读 · 0 评论 -
目标检测常用框回归loss总结
本文按照时间线路,总结目标检测常用的框回归loss函数。顺序依次为:smooth L1 loss, IOU loss,GIOU loss, DIOU loss, CIOU lossmmdetection box regression losses(click here)Smooth l1 loss最初由 fast rcnn提出。其公式如下:smoothl1(x)={0.5x2if ∣x∣<1∣x∣−0.5if ∣x∣>=1smooth_{l1}(x) = \begin{cases} 0原创 2020-08-29 14:52:23 · 1436 阅读 · 0 评论 -
NMS和IOU代码解读(可以直接使用)
NMS和IOU是目标检测常用技术。在anchor-based的检测任务中,训练时需要IOU,测试时需要NMS,而NMS内部就要有IOU。本文先分析IOU的原理,公式,以及代码实验,最后在讲解NMS的代码。IOU(detection)现在有两个框A和B。A=【ax1, ay1, ax2, ay2] 】,B=【bx1, by1, bx2, by2】。接下来想统计A和B的交集面积, A自己的面积和B自己的面积。 三个待求值里面最关键的就是怎么求交集面积。假设两种情况。 A和B是相交的,存在交集。这个时候原创 2020-07-29 13:36:53 · 1879 阅读 · 1 评论 -
深度学习常用优化器学习
万丈高楼从地起。我们日常直接使用优化器,但各类优化器有什么不同,各有什么特别,我一直没主动去了解。今天就来学习一下,记录并做笔记。SGD现在的SGD普遍指的是mini-batch SGD。最简单的优化器,即参数往梯度下降的最快方向更新。θ−=lr×grad\theta -= lr \times gradθ−=lr×grad梯度下降法一个很明显的问题就是,当batchsize比较小的时候,寻找最优值得速度很慢,因为方向基本呈震荡型。就像是黑暗中摸着手电筒探索道路。 如果batchsize比较小,则优原创 2020-07-17 21:41:07 · 708 阅读 · 0 评论 -
StyleGAN阅读笔记和源码阅读
StyleGAN以Style为名,有两个含义:1. 借鉴在风格迁移中常用到的adain操作。2. 通过adain 把不同层次的样式(style)embed到不同分辨率的特征图上,能够影响不同层次(level)的生成图像的样式。高级层次有人脸的姿态,脸型,发型等宏观的样式,低级点的有细小的细节风格(脸的细节,像源A还是源B,),眼镜。StyleGAN以渐进式GAN为baseline,通过改进了一些方面,来生成高清(1024*1024)逼真的人脸图像。这些改进主要有:改进渐进GAN的上采样层和超参数添原创 2020-06-21 15:43:05 · 2348 阅读 · 2 评论 -
CenterNet:Objects as Points论文解读以及源码分析
ICCV2019 官方源码梗概CenterNet通过预测每个目标的中心点,既而以中心点为基准进行回归宽和高,以及由于下采样带来的点的偏置。将目标检测用关键点检测的思路来做,抛弃了由anchor生成的大量需要被抑制的样本,故而不需要NMS做后处理,而且整个网络只有一个检测Head,不基于FPN为BackBone需要多个检测Head,整体速度就快了很多。方法网络的总体结构可以化简为上图所示。其中backbone的结构放在最后讲解,对于一种新的检测思路,重点思路是在如何对label编码,如何对预测结果解原创 2020-06-17 17:52:40 · 1725 阅读 · 0 评论 -
详解Focal Loss以及PyTorch代码
原理从17年被RetinaNet提出,Focal Loss 一直备受好评。由于其着重关注分类较差的样本的思想,Focal loss以简单的形式,一定程度解决了样本的难例挖掘,样本不均衡的问题。普通的Cross EntropyCE(pt)=−atlog(pt)CE(p_t) = -a_t log(p_t)CE(pt)=−atlog(pt)ata_tat是平衡因子。Focal Los...原创 2020-04-08 18:36:46 · 6858 阅读 · 4 评论 -
PointINS: Point-based Instance Segmentation论文解读
前言这应该是一篇正在投稿ECCV2020的实例分割论文。就我的眼光来看,应该是可以中的。从point-based 特征出发,解决实例分割问题。其中的一些idea,和另一篇基于点的实例分割:AdaptIS有异曲同工之妙。关于AdaptIS,可以去看我的另一篇博客另外,代码将会开源摘要基于点特征的idea已经开始在目标检测流行起来了,但是却很难应用在实例分割上。这有两方面的原因。基于点特征...原创 2020-03-20 19:43:16 · 1527 阅读 · 0 评论 -
Zero-Shot Video Object Segmentation via Attentive Graph Neural Networks论文解读
前言这是一篇iccv19的oral paper,直到2020年一月作者才放出来,代码已经开源,用于视频分割。摘要这篇工作提出了一种新颖的注意力图神经网络,用于零样本视频目标分割(vos)。本文提出的AGNN将vos任务转化为在视频图上迭代的信息融合的过程。具体来说,Agnn建立了一张全连接的图,图的节点由视频帧构成,图的边由任意两个帧的关系构成。这种关系用一种可微的注意力机制描述。Agnn能...原创 2020-03-05 12:56:54 · 1767 阅读 · 1 评论 -
解析人脸识别中cosface和arcface(insightface)的损失函数以及源码
人脸识别最近几年的发展,几乎就两条,第一是面向移动设备,第二,改进损失函数,使训练的模型更加有效。这就要求loss能push各个类内在空间分布的更紧凑。从normface开始,人脸识别就进入使用余弦相似度来判断识别精度的时代。对weight和feature都进行l2 norm,避免长尾,使样本不均衡不再制约精度。在center loss中,指明softMax-based loss将特征空间呈原点...原创 2020-02-26 20:04:55 · 9109 阅读 · 1 评论 -
AdaptIS: Adaptive Instance Selection Network论文解读
AdaptIS是ICCV2019的论文,实际上并不出名,没有得到太多的关注。但这篇文章也是有很大亮点的。它可以用来做实例分割,同时也可以被扩展为全景分割框架。它的亮点是,只用一个目标身上的点,就可以分割出这个目标实例的分割掩码。论文地址和官方开源地址:here研究背景实例分割目前有两个方向:先检测,后分割,代表有MasKrcnn, PANet。先检测目标区域,在单独为这个区域的目标做二...原创 2020-01-12 15:53:58 · 1772 阅读 · 0 评论 -
FCOS: Fully Convolutional One-Stage Object Detection论文解读和代码实践
FCOS是一个全卷积结构的anchor free 目标检测网络。虽然是anchor free,但是mAP精度却比RetinaNet高,而且又是全卷积结构,比起anchor base 的检测网络,少了很多超参数,推理速度也较anchor based的一些方法快上许多。摘要作者提出了一种全卷积,一阶段目标检测网络,通过对每一个像素预测一个目标来解决目标检测问题(没有anchor,特征图上一个位置预...原创 2019-12-24 18:39:33 · 754 阅读 · 3 评论 -
PortraitNet: Real-time portrait segmentation network for mobile device论文解读和代码实践
好久没读论文了,因为最近要写一篇二区论文,就没怎么在读新论文了。今天有点闲空,写一篇关于人像分割的论文,同时还有代码实践。研究背景人像精细分割属于语义分割的子任务。但一般的语义分割网络用来做人像精细分割效果都不太行。作者给出了如下理由:人脸占据图像至少10%的面积在强光照下,边界会模糊,不适合语义分割,但这种情况却在自拍照中常见。分割网络很大,不适合移动端实时快速的人像分割。网络结...原创 2019-12-11 19:39:28 · 4351 阅读 · 3 评论 -
Learning the Model Update for Siamese Trackers论文解读
今天为大家介绍一篇ICCV2019的paper,用于目标跟踪。也是更新模板,和之前介绍的GradNet更新模板的策略不同,是通过一个小网络学习新的模板。论文以及官方代码 点击这里研究背景在目标跟踪领域,目标在一个序列中会有非常大的变化,这个变化来自于自身形状,遮挡,其他类似目标出现吗,运动模糊,光照等因素。先有的孪生网络,一部分把第一帧的目标crop出来,用作模板,用模板和后续帧进行相...原创 2019-11-17 17:26:23 · 1310 阅读 · 0 评论 -
GradNet: Gradient-Guided Network for Visual Object Tracking论文解读
今天为大家解读一篇ICCV2019的oral paper。用于目标跟踪,思路奇特。值得认真学习一下。项目及论文下载地址 here研究背景自从SiamFC横空出世,基于孪生网络的目标跟踪方法就几乎统治了跟踪领域。孪生网络通过学习模板和当前帧的相似度,判断目标最可能出现的位置,来达到跟踪的效果。自SiamFC之后,有SiamRPN,SiamMask,Cascade SiamRPN, SiamRP...原创 2019-11-14 23:05:22 · 3023 阅读 · 4 评论 -
深圳鲁班嫡系计算机视觉岗位面试题以及我的答案
机器学习1.1 请简要描述监督学习和无监督学习的概念监督的含义是有样本对应的标签参与训练。通过惩罚模型针对某样本的输出和该样本的标签之间的距离达到训练目的。无监督学习没有样本对应的标签,通过挖掘样本特征之间的差异性达到训练目的。1.2 略1.3 分类问题有哪些常用的误差函数。最常用的交叉熵(多类),BCE(binary cross entropy,二类任务),Focal loss,...原创 2019-11-12 21:50:23 · 573 阅读 · 0 评论 -
深度学习中的IOU计算方式和代码实践
IOU,全称为intersection of union, 中文名“交并比”。这个概念理解起来不难,本文将从原理以及代码实践来解读IOU。首先要说明的是,IOU在检测领域和分割领域都有应用,但这两个领域的IOU计算方式是不一样的。所以本文就分为两个部分。分别讲解在分割和检测两个领域的IOU计算方式。分割领域的IOU计算方式假设白色区域为1,黑色区域为0。根据IOU计算公式:iou=A∩...原创 2019-11-11 17:16:54 · 7863 阅读 · 10 评论 -
深度学习分类、识别等任务常用的余弦距离和对应的PyTorch代码
余弦距离常常在人脸识别,图像分类,行人重识别中应用。自从centerNet可视化了softmax loss之后,人们得知神经网络的输出空间原来是呈现原点向外发散状,分类结果是可以通过判断两个样本在输出空间对应的向量之间的夹角来得知是否是同一类样本。这个夹角就是所谓的余弦距离,夹角越小,两个样本越相似。预备的数学知识cos曲线:比如现在有样本A,B,对应在输出空间的特征向量分别是...原创 2019-11-01 10:23:30 · 3915 阅读 · 0 评论 -
SSD(Single Shot MultiBox Detector)中的框回归详解(真的详细!!!)
很多人都知道Anchor-based的目标检测网络按照阶段来分有两类,以RCNN为代表的的二阶段检测和SSD,Yolo为代表的一阶段网络。其中二阶段网络的RPN和一阶段网络的输出,损失函数都有框回归的部分。本篇博客就详细解释框回归的原理,步骤和Smoth L1 loss.前言在正式讲解之前,我们需要知道,网络的输出不是框的坐标和宽,高。这些坐标,宽高需要从输出向量解码得到。我们都知道,目标检测...原创 2019-10-31 19:39:39 · 3254 阅读 · 24 评论 -
SinGAN:Learning a generative Model from a Single Natural Image解读(ICCV2019最佳论文)
昨天晚上看完了这篇论文。不得不说,这篇工作确实很棒,使用一个统一的模型,却能解决很多视觉任务。而且方式也是很简单,不需要设立各式各样复杂的condition。总览先大致说下这篇论文是做什么的,以及如何做。SinGAN在仅仅一张图像上训练,这张图片既是训练样本也是测试样本。在这张图像上训练完了之后,同样在这样图片上测试。如果你想换一张图像测试,就必须先在那张图像上训练,这是有异于其他GAN的。...原创 2019-10-30 11:26:22 · 8181 阅读 · 14 评论 -
BatchNorm的个人解读和Pytorch中BN的源码解析
BatchNorm已经作为常用的手段应用在深度学习中,效果显著,加快了训练速度,保证了梯度的流动,防止过拟合,降低网络对初始化权重敏感程度,减少对调参的要求。今天自己就做个总结,记录一下BatchNorm,并从Pytorch源码来看BatchNorm。BN的灵感来源讲解BN之前,我们需要了解BN是怎么被提出的。在机器学习领域,数据分布是很重要的概念。如果训练集和测试集的分布很不相同,那么在训练...原创 2019-10-25 10:21:20 · 5675 阅读 · 5 评论 -
See More, Know More: Unsupervised Video Object Segmentation with Co-Attention Siamese Networks论文解读
这是我看的第一篇无监督视频目标分割的方法(UVOS),是一篇CVPR2019,之前一直看的是半监督VOS,因为思路卡壳,在无监督VOS方法中寻求一下灵感。相较于半监督已经开始在保持精度的情况重视推理速度,无监督还是看重精度,不过毕竟UVOS没有给要分割哪一个目标。官方代码idea作者提出一种co-attention,基于一个视频序列全局角度,来提升UVOS的精度。(确实领先目前的很多模型,d...原创 2019-09-17 21:23:32 · 3883 阅读 · 8 评论 -
EMANet:Expectation-Maximization Attention Networks for Semantic Segmentation论文解读和代码解读
官方项目地址:含论文和代码来自北大才子 立夏之光的 ICCV Oral ,理论很漂亮。属于Non local方式idea由于理论方面涉及了机器学习算法 - EM算法,博主虽然学过EM,但时间久远有些记不起,这篇论文吧博主看了很久,依然没能理解其精髓,但是不影响我会使用它(哈哈)。言归正传。在语义分割中,越来越多Non local的方法出现了,并且都取得了精度上的进步,说明Non local...原创 2019-09-17 16:15:26 · 9301 阅读 · 22 评论 -
RANet:Ranking attention Network for Fast Video Object Segmentation论文解读
这篇ICCV2019的论文可算是厉害了。单目标视频目标分割(VOS)中的SOTA效果,并且速度还惊人的快。Idea近年来,Match based和Propagation based 方法做快速VOS的效果显著。这篇工作就将这两个方法的优点融合进来。为了让读者能快速理解VOS的发展趋势,我简单说下什么是Match based和Propagation based 。Match based:代表...原创 2019-09-02 20:28:37 · 3756 阅读 · 10 评论 -
Fast Video Object Segmentation by Reference-Guided Mask Propagation论文解读
今天带了一篇视频目标分割具有里程碑意义的文章,为啥说它有里程碑意义,因为这篇论文相较于之前的VOS方法,不需要微调或者数据增强和online adaptation,以及多数据多流然后特征融合,具有非常快的速度的同时,还具有state of the art的精度。放在2018年(应该是2017年就出来了),是strongly novel的。CVPR2018,论文地址官方源码Idea作者提出了...原创 2019-08-24 17:37:02 · 915 阅读 · 3 评论 -
CCNet: Criss-Cross Attention for Semantic Segmentation论文解读
这是ICCV2019的用于语义分割的论文,可以说和CVPR2019的DANet遥相呼应。关于DANet可以见我的另一篇博客idea和DANet一样,CCNet也是想建模像素之间的long range dependencies,来做更加丰富的contextual information,来补充特征图,以此来提升语义分割的性能。但是和DANet不一样,CCNet仅考虑空间分辨上的建模,不考虑建模通...原创 2019-08-15 10:07:25 · 5054 阅读 · 16 评论 -
YOLACT : Real-time Instance Segmentation论文解读
好久没写论文解读了。整个6月到7月中旬都在琢磨tensorflow C++的API和生成dll。今天为大家带来一篇实时性的实例分割论文,入选CVPR2019,我认为是一篇相当有水平的工作。在能保证实时性的情况下,某些指标和针对某一种情况,效果居然比二阶段的分割方法还要好,速度是二阶段网络的几十倍吧。如果采用模型剪枝和量化,说不定工业上就能运行实例分割了。idea作者巧妙的将实例分割分为两个子任...原创 2019-07-18 11:41:31 · 2310 阅读 · 1 评论 -
Proposal, Tracking and Segmentation (PTS)论文解读和代码解读
这是一篇在arxiv7月2号新上的一篇论文,做视频目标分割的。论文本身没有什么太多的创意,使用现有的一些模块组合,提出了一种串联结构,把VOS任务分成三步骤,每一步骤对应一个模块,最后的结果达到了state of the art 的效果。论文地址开源地址overview作者将VOS分层三个步骤object proposal network : 先用mask rcnn开源的RPN,通过I...原创 2019-07-12 11:39:53 · 855 阅读 · 0 评论 -
记录nvidia官方对Pix2PixHD的源码实现细节
好记性不如烂笔头,这篇论文我认为主要还是在feature matching的loss上,不过既然看了论文,就认真看一下源码吧数据读取部分经过一系列的追踪,我们可以在AlignedDataset中看到数据读取的方式,init里面都是些路径的设置,直接看get_item部分。 A = Image.open(A_path) params = get_params(self.opt...原创 2019-06-05 13:22:56 · 5038 阅读 · 5 评论 -
CGANS with projection discriminator论文实现细节
这是ICLR2018的一篇具有影响力的论文,和它的兄弟篇Spectral normalization 都是一个作者写的,对GAN的发展具有挺大的影响,极大的稳定了gan的训练,也是理论性很强的论文,有很多公式推导。这篇博客不会涉及到原理部分。我仅参照论文给出的结构图,梳理一下今天啃的硬骨头。Categorical Conditional BatchNorm是个啥?如何将条件信息y通过proj...原创 2019-06-01 20:03:27 · 3357 阅读 · 0 评论