![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习框架
文章平均质量分 89
麻花地
这个作者很懒,什么都没留下…
展开
-
Hydra Attention学习笔记
虽然transformers已经开始在视觉领域的许多任务中占据主导地位,但将它们应用于大型图像在计算上仍然很困难。一个很大的原因是,自我注意力随标记的数量成二次增长,而标记的数量又随图像的大小成二次增长。对于较大的图像(例如,1080p),网络中超过60%的计算都花在创建和应用注意矩阵上。我们通过引入Hydra Attention向解决这个问题迈出了一步,它是视觉transformers(ViTs)的一种非常高效的注意操作。原创 2022-10-24 11:07:24 · 1214 阅读 · 0 评论 -
Xception学习笔记
我们将卷积神经网络中的Inception modules解释为**正则卷积和深度可分离卷积运算**(深度卷积后接点卷积)之间的中间步骤(**Inception结构是介于传统卷积和深度可分离卷积的中间形态,Xception彻底解耦为深度可分离卷积**)。从这个角度来看,深度可分离卷积可以理解为具有最大数量塔的Inception modules。这一观察结果引导我们提出了一种新的深卷积神经网络结构,其灵感来自于初始阶段,Inception modules已被深度可分离卷积所取代。我们表明,这种被称为**Exce原创 2022-06-28 11:26:26 · 640 阅读 · 0 评论 -
MnasNet学习笔记
为移动设备设计卷积神经网络(CNN)具有挑战性,因为移动模型需要小而快,但仍然准确。尽管在设计和改进移动CNN的各个方面都做出了巨大的努力,但当需要考虑这么多架构可能性时,很难手动平衡这些权衡。**在本文中,我们提出了一种自动移动神经架构搜索(MNAS)方法,该方法将模型延迟明确纳入主要目标,以便搜索能够识别出一个在准确性和延迟之间实现良好权衡的模型**。与之前的工作不同,我们的方法通过另一个通常不准确的代理(例如FLOPS)来考虑延迟,我们的方法通过在手机上执行模型来直接测量真实世界的推理延迟。为了进一步原创 2022-06-27 20:31:42 · 541 阅读 · 0 评论 -
DenseNet网络论文学习笔记
Densely Connected Convolutional Networks最近的研究表明,如果卷积网络包含接近输入层和接近输出层之间的较短连接,则卷积网络可以更深入、更准确、更有效地进行训练。在本文中,我们接受了这一观察结果,并引入了稠密卷积网络(DenseNet),它以前馈方式将每一层连接到其他每一层。传统的L层卷积网络有L个连接,每个层和后续层之间有一个连接,而我们的网络有L(L+1/2个直接连接。对于每一层,所有先前层的特征图用作输入,其自身的特征图用作所有后续层的输入。DenseNets有几个原创 2022-06-26 10:05:54 · 482 阅读 · 0 评论 -
旷世轻量化网络ShuffulNetV2学习笔记
ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design目前,神经网络体系结构的设计主要由计算复杂性的间接度量来指导,即FLOPs.。然而,速度等直接指标也取决于其他因素,如内存访问成本和平台特性。因此,这项工作建议评估目标平台上的直接度量,而不仅仅是考虑FLOPs.。基于一系列的控制实验,这项工作得出了一些有效网络设计的实用指南。因此,提出了一种新的体系结构,称为ShuffleNet V2。......原创 2022-06-24 10:29:48 · 705 阅读 · 0 评论 -
Squeeze-and-Excitation Networks学习笔记
卷积神经网络(CNN)的核心构建模块是卷积算子,它使网络能够通过融合每层局部感受野中的空间和通道信息来构建信息特征。大量先前的研究已经调查了这种关系的空间成分,试图通过提高整个特征层次的空间编码质量来增强CNN的代表性。在这项工作中,我们将重点放在通道关系上,并提出了一种新的体系结构单元,我们称之为“挤压和激励”(SE)块,它通过显式建模通道之间的相互依赖性,自适应地重新校准通道特征响应。我们表明,这些块可以堆叠在一起,形成SENet体系结构,可............原创 2022-06-08 20:53:07 · 699 阅读 · 0 评论 -
Transformer模型新SOTA--fully attentional networks (FANs) 学习笔记
最近的研究表明,视觉转换器(VIT)对**各种腐蚀(损坏、变体)具有很强的鲁棒性**。虽然这一特性部分归因于自我注意机制,但仍缺乏系统的理解。在本文中,我们研究了自我注意在学习鲁棒表征中的作用。我们的研究受到Vision Transformers中新兴视觉分组的有趣特性的推动,**这表明自我注意可以通过改进中级表征来提高稳健性**。我们进一步提出了一系列**全注意网络**(FANs),通过整合注意通道处理设计来加强这一能力。我们在各种层次主干上全面验证了设计。我们的模型在ImageNet-1k和ImageN原创 2022-06-07 16:11:40 · 1132 阅读 · 0 评论 -
全MLP结构模型学习笔记
卷积神经网络(CNN)是计算机视觉的常用模型。最近,基于注意力的网络,如Vision Transformer,也变得很流行。在本文中,我们表明,虽然卷积和注意力都足以获得良好的性能,但它们都不是必需的。我们提出了MLPMixer,一种专门基于多层感知器(MLP)的体系结构。MLP混合器包含两种类型的层:一种是将MLP独立应用于图像patches的层(即“混合”每个位置的特征),另一种是跨patches应用MLP的层(即“混合”空间信息)。......原创 2022-06-04 10:29:24 · 3208 阅读 · 0 评论 -
糖尿病视网膜病变研究的基准:分割、分级和可转移性笔记
糖尿病视网膜病变研究的基准:分割、分级和可转移性笔记A Benchmark for Studying Diabetic Retinopathy: Segmentation, Grading, and TransferabilityAbstract糖尿病患者有患糖尿病视网膜病变(DR)的风险。当高血糖水平导致视网膜血管受损时,就会发生这种疾病。由于深度学习的巨大成功,计算机辅助DR诊断已成为DR早期诊断和严重程度分级的一个有前途的工具。然而,由于缺乏具有一致性和细粒度注释的训练数据,大多数当前的DR诊断原创 2022-05-24 14:39:29 · 3727 阅读 · 0 评论 -
基于深度学习的检测和阶段分级优化糖尿病视网膜病变的诊断
基于深度学习的检测和阶段分级优化糖尿病视网膜病变的诊断Deep learning‐based detection and stage grading for optimising diagnosis of diabetic retinopathyAbstract**Aims:**建立一种自动化方法,使用基于深度学习的病变检测和分期,识别可参考的糖尿病视网膜病变(DR),定义为中度非增殖性DR及以上。Materials and Methods:一组12252张符合条件的糖尿病患者眼底图像由45名持证眼原创 2022-05-16 09:10:42 · 2928 阅读 · 2 评论 -
糖尿病视网膜病变的深度学习系统笔记
糖尿病视网膜病变的深度学习系统笔记论文地址:A deep learning system for detecting diabetic retinopathy across the disease spectrumAbstract视网膜筛查有助于早期发现糖尿病视网膜病变并及时治疗。为了促进筛查过程,我们开发了一个名为DeepDR的深度学习系统,可以检测早期至晚期糖尿病视网膜病变。DeepDR接受实时图像质量评估、病变检测和分级培训,使用121342名糖尿病患者的466247张眼底图像。评估是在一个本地原创 2022-05-15 10:28:46 · 3621 阅读 · 2 评论 -
ResNet改进原理介绍论文笔记
ResNet改进原理介绍论文笔记Identity Mappings in Deep Residual NetworksAbstract深度剩余网络是一系列极深的体系结构,显示出令人信服的准确性和良好的收敛行为。在本文中,我们分析了剩余构建块背后的传播公式,这表明在使用身份映射作为跳过连接和加法激活后,前向和后向信号可以直接从一个块传播到任何其他块。一系列消融实验证明了这些恒等式映射的重要性。这促使我们提出了一种新的残差单元,它使训练更容易,提高了泛化能力。我们报告了使用CIF AR10上的1001层原创 2022-05-12 21:21:49 · 2068 阅读 · 0 评论 -
卷积神经网络中的add和concat
参考博客:深度特征融合---理解add和concat之多层特征融合_xys430381_1的博客-CSDN博客_特征图相加Add是特征图相加,通道数不变简言之,add是将多次提取到的语义信息叠加,会突出正确分类的比例,有利于最后分类,实现了正确分类的高激活add单个通道的计算量:实例Resnet网络的残差结构将经过处理和未经过处理的输入进行add,目的保留原始图像中的正确高激活,避免在处理过程中对正确激活的削弱,所以才有了那句“有时候什么都不做才是最好的”Conca.原创 2022-05-11 10:12:20 · 3314 阅读 · 0 评论 -
UTNet论文笔记
UTNet论文笔记UTNet: A Hybrid Transformer Architecture for Medical Image SegmentationAbstractTransformer架构已经在许多自然语言处理任务中取得了成功。然而,它在医学视觉中的应用仍然没有得到很大的探索。在这项研究中,我们提出了UTNet,一种简单但功能强大的混合Transformer结构,它将自我注意集成到卷积神经网络中,用于增强医学图像分割。UTNet在编码器和解码器中都应用了自我关注模块,以最小的开销捕获不同原创 2022-05-07 11:11:37 · 1155 阅读 · 0 评论 -
TransUNet论文笔记
TransUNet论文笔记TransUNet: Transformers Make Strong Encoders for Medical Image SegmentationAbstract医学图像分割是开发医疗保健系统,尤其是疾病诊断和治疗计划的必要前提。在各种医学图像分割任务中,u-shaped体系结构(也称为U-Net)已成为事实上的标准,并取得了巨大成功。然而,由于卷积运算的固有局部性,U-Net通常在显式建模长期依赖性方面存在局限性。设计用于序列到序列预测的transformers已经成为原创 2022-05-05 11:15:05 · 5082 阅读 · 9 评论 -
Transformers 在医疗图像中的应用综述
Transformers 在医疗图像中的应用综述Transformers in Medical Image Analysis: A ReviewAbstractTransformers在自然语言处理领域占据主导地位,最近影响了计算机视觉领域。在医学图像分析领域,Transformers还成功应用于全堆栈临床应用,包括图像合成/重建、配准、分割、检测和诊断。我们的论文介绍了一份立场文件和一本初级读物,以提高人们对Transformers在医学图像分析领域的认识和应用。具体来说,我们首先概述了Transf原创 2022-05-04 11:19:05 · 3328 阅读 · 1 评论 -
Grad-CAM论文笔记
Grad-CAM论文笔记Grad-CAM: Visual Explanations from Deep Networks via Gradient-based LocalizationAbstract我们提出了一种技术,用于从一大类基于卷积神经网络(CNN)的模型中生成决策的“视觉解释”,使它们更加透明和可解释。我们的方法——Gradient-weighted Class Activation Mapping梯度加权类激活映射(Grad-CAM),使用流入最终卷积层的任何目标概念(比如分类网络中的“原创 2022-05-01 12:22:31 · 2240 阅读 · 0 评论 -
全卷积神经网络(FCN)论文笔记
全卷积神经网络(FCN)论文笔记Fully Convolutional Networks for Semantic SegmentationAbstract卷积网络是一种功能强大的视觉模型,可以产生特征的层次结构。我们证明了卷积网络本身,经过端到端训练的像素到像素,在语义分割方面超过了最先进的水平。我们的关键洞察是构建“完全卷积”网络,该网络接收任意大小的输入,并通过有效的推理和学习产生相应大小的输出。我们定义并详细描述了完全卷积网络的空间,解释了它们在空间密集型预测任务中的应用,并与先前的模型建立了原创 2022-04-28 10:56:33 · 3540 阅读 · 0 评论 -
医疗Transformer应用综述
医疗Transformer应用综述Transformers in Medical Imaging: A SurveyAbstract在自然语言任务上取得了前所未有的成功后,Transformers 已成功地应用于若干计算机视觉问题,取得了最新的成果,并促使研究人员重新考虑卷积神经网络(CNN)作为事实上的算子的优越性。利用计算机视觉的这些进步,医学成像领域也见证了对Transformers 的兴趣日益增长,与具有局部感受野的CNN相比,Transformers 能够捕捉全局环境。受这一转变的启发,在本原创 2022-04-28 10:54:16 · 4616 阅读 · 0 评论 -
糖尿病眼底病变综述概要记录
糖尿病眼底病变综述概要记录原文地址:Automated Detection and Diagnosis of Diabetic Retinopathy: A Comprehensive SurveyABSTRACT糖尿病视网膜病变(DR)是世界上导致视力下降的主要原因。在过去几年中,基于人工智能(AI)的方法已被用于检测和分级DR。早期检测可以进行适当的治疗,从而防止视力丧失。眼底和光学相干断层扫描(OCT)图像均用于视网膜成像。通过基于深度学习/机器学习的方法,可以从图像中提取特征并检测DR的存在。原创 2022-04-23 10:41:06 · 1785 阅读 · 0 评论 -
膨胀卷积论文笔记
膨胀卷积论文笔记原文地址:Understanding Convolution for Semantic SegmentationAbstract深度学习的最新进展,尤其是深度卷积神经网络(CNN),已经导致了语义分割系统的显著改进。在这里,我们展示了如何通过操作卷积相关操作来改进像素级语义分割,这些操作具有理论和实用价值。首先,我们设计了密集上采样卷积(DUC)来生成像素级预测,它能够捕获和解码双线性上采样中通常缺失的更详细信息。其次,我们在编码阶段提出了一种混合膨胀卷积(HDC)框架。该框架1)有效原创 2022-04-22 15:30:04 · 2114 阅读 · 0 评论 -
U-Net网络变形综述
U-Net网络变形综述U-Net and its variants for Medical Image Segmentation : A short reviewAbstract本文简要回顾了U-Net及其变体在医学图像分割中的应用。据我们所知,对任何一位临床医生,无论是放射科医生还是病理学家来说,检查医学图像都不是一件容易的工作。分析医学图像是进行无创诊断的唯一方法。分割感兴趣区域在医学图像中具有重要意义,是诊断的关键。本文还对医学图像分割的发展进行了鸟瞰。还讨论了深层神经结构的挑战和成功。以下是不原创 2022-04-21 11:02:39 · 7482 阅读 · 0 评论 -
VGG论文笔记及代码
VGG论文笔记及代码VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION牛津大学视觉组(VGG)官方网站:https://www.robots.ox.ac.uk/~vgg/Abstract在这项工作中,我们研究了在大规模图像识别环境中卷积网络深度对其准确性的影响。我们的主要贡献是使用具有非常小(3×3)卷积滤波器的架构对深度不断增加的网络进行了彻底评估,这表明通过将深度推至16–19权重层,可以实现对现有技术配置的显著原创 2022-04-20 21:26:27 · 1193 阅读 · 0 评论 -
TernausNet论文笔记及结构代码
原文地址:U-Net with VGG11 Encoder Pre-Trained on ImageNet for Image SegmentationAbstract基于像素的图像分割是计算机视觉领域的一项重要任务。由编码器和解码器组成的经典U-Net结构在医学图像、卫星图像等的分割中非常流行。通常,在ImageNet等大数据集上预先训练的网络中,使用权值初始化的神经网络比在小数据集上从头开始训练的神经网络表现出更好的性能。在一些实际应用中,尤其是在医疗和交通安全方面,模型的准确性至关重要。在本文中,原创 2022-04-19 10:36:54 · 955 阅读 · 0 评论 -
LinkNet论文笔记
LinkNet论文笔记LinkNet: Exploiting Encoder Representations for Efficient Semantic SegmentationAbstract用于视觉场景理解的像素语义分割不仅需要准确,而且需要高效,以便在实时应用中找到任何用途。现有的算法虽然准确,但没有有效地利用神经网络的参数。因此,就参数和操作数量而言,它们是巨大的;因此也很慢。在本文中,我们提出了一种新的深度神经网络结构,它可以在不显著增加参数数量的情况下进行学习。我们的网络仅使用1150万原创 2022-04-17 12:14:35 · 4372 阅读 · 0 评论 -
softmax函数和sigmoid函数的异同
softmax函数:多分类输出概率结果总和为1,每个分类或者时间不相互独立(互斥)Softmax =多类别分类问题=只有一个正确答案=互斥输出(例如手写数字,鸢尾花)例子:做图片分类时,一个图片只能对应一个分类,所以使用softmax求解在所有类别中,预测图片为哪个类别的概率大。例如手写数据集中图片8,正确的只可能是8,或者预测错误为其他类别,不可能同时出现两个结果,既是8又是3.sigmoid函数:多分类输出概率结果总和可能不为1,每个分类或者类别相互独立Sigmo原创 2022-04-17 10:41:21 · 354 阅读 · 0 评论 -
Residual Attention U-Net 论文笔记
Residual Attention U-Net 论文笔记原文地址:RAUNet: Residual Attention U-Net for Semantic Segmentation of Cataract Surgical InstrumentsAbstract手术器械的语义分割在机器人辅助手术中起着至关重要的作用。然而,由于镜面反射和等级不平衡的问题,白内障手术器械的精确分割仍然是一个挑战。本文提出了一种attention-guided网络来分割白内障手术器械。设计了一个新的注意模块来学习辨别特原创 2022-04-16 10:28:43 · 2029 阅读 · 4 评论 -
Attention U-Net笔记
Attention U-Net笔记原文地址:Learning Where to Look for the PancreasAbstract我们提出了一种新的用于医学成像的attention gate(AG)模型,该模型能够自动学习聚焦不同形状和大小的目标结构。使用AGs训练的模型隐式学习抑制输入图像中的无关区域,同时突出对特定任务有用的显著特征。这使我们能够消除使用级联卷积神经网络(CNN)的显式外部组织/器官定位模块的必要性。AGs可以很容易地集成到标准的CNN架构中,比如U-Net模型,只需最小的原创 2022-04-15 11:22:43 · 6459 阅读 · 0 评论 -
3D U-Net论文笔记
3D U-Net论文笔记原文地址:Learning Dense Volumetric Segmentation from Sparse AnnotationAbstract本文介绍了一种从稀疏标注的体图像中学习的体分割网络。我们概述了这种方法的两个有吸引力的用例:(1)在半自动设置中,用户在要分割的volume(立方体)中注释一些切片。该网络从这些稀疏注释中学习,并提供密集的3D分割。(2) 在完全自动化的设置中,我们假设存在一个具有代表性的、稀疏注释的训练集。在这个数据集上训练,网络密集地分割新的原创 2022-04-15 11:17:28 · 3747 阅读 · 0 评论 -
Swin Transformer论文笔记
Swin Transformer 翻译Swin Transformer: Hierarchical Vision Transformer using Shifted WindowsAbstact本文提出了一种新的视觉转换器,称为Swin Transformer,它可以作为计算机视觉的通用主干。这两个领域之间的差异,比如视觉实体的规模差异很大,图像中的像素与文本中的单词相比分辨率较高,这就给从语言到视觉的转换带来了挑战。为了解决这些差异,我们提出了一种分层Transformer,其表示是用Shifte原创 2022-04-12 14:40:29 · 771 阅读 · 1 评论 -
U-Net论文笔记
U-Net论文笔记U-Net: Convolutional Networks for Biomedical Image Segmentation官网教学视频(需要挂梯子):https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/u-net-teaser.mp4或者去我的资源下载https://download.csdn.net/download/charles_zhang_/85114968Abstact人们普遍认为,成功地训练原创 2022-04-12 11:29:24 · 2251 阅读 · 0 评论 -
MAE论文笔记
MAE论文笔记Masked Autoencoders Are Scalable Vision LearnersMAE模型和其他的结构的关系,可以认为是在ViT的基础上实现类似于BERT的通过完型填空获取图片的理解标题和作者Masked Autoencoders Are Scalable Vision Learners其中的Autoencoders 中的auto是“自”的意思,主要是指输入(x)和输出(y)是来自于同一个变量(相同),题目设置使用Autoencoders 使用为在CV领域这中类型的原创 2022-04-10 10:48:55 · 2915 阅读 · 1 评论 -
ViT(Vision Transformer)论文笔记
ViT(Vision Transformer)论文笔记(AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE)Abstact虽然Transformer架构已经成为自然语言处理任务的事实标准,但它在计算机视觉中的应用仍然有限。在视觉中,注意力要么与卷积网络结合使用,要么用于替换卷积网络的某些组件(替换CNN模型的一部分),同时保持其整体结构。我们表明,这种对CNN的依赖是不必要的,直接应用于图像块序列的 pu原创 2022-04-06 14:35:38 · 6820 阅读 · 0 评论 -
Attention Is All You Need论文笔记
Attention Is All You Need论文笔记作者八位作者其中六位是谷歌,每个作者名字上都有星号,表示每个人的贡献都是一样的**注:**文章第一页末尾有注释,解释为什么说每个人的贡献相同Equal contribution. Listing order is random. Jakob proposed replacing RNNs with self-attention and startedthe effort to evaluate this idea. Ashish, wit原创 2022-04-02 23:31:39 · 1755 阅读 · 0 评论 -
神经网络卷积核的意义是什么?
一共有三层含义下面只做简单介绍,具体请参考B站UP主王木头的视频:从“卷积”、到“图像卷积操作”、再到“卷积神经网络”,“卷积”意义的3次改变_哔哩哔哩_bilibilid第一种:一个系统具有不稳定的输入,稳定的输出,可以通过卷积去求这个系统的系统余量第二种:周围像素点对当前像素点会产生怎样的影响第三种:过滤器的卷积核,它规定了一个像素点如何试探周围的像素点,如何筛选图像的特征...原创 2022-03-31 20:33:18 · 3577 阅读 · 0 评论 -
ZFNet论文笔记--卷积可视化
ZFNet论文笔记Visualizing and Understanding Convolutional Networks算法介绍**实现可视化的目的:**打破神经网络“黑匣子”,通过可视化解释神经网络的过程ZFNet网络结构:在AlexNet的基础上进行修改,核心是可视化通过反卷积反池化进行可视化反池化通过池化时记录最大像素的位置,反池化时根据最大位置返回到对应位置反激活使用的还是ReLU函数反卷积使用原始卷积的转置卷积进行重构实例:第一层可以看到第一层卷积核每一部分负责不原创 2022-03-31 20:21:29 · 2898 阅读 · 0 评论 -
InceptionV4,Inception-ResNet论文笔记
InceptionV4,Inception-ResNet论文笔记Abstract非常深的卷积网络是近年来图像识别性能最大进步的核心。一个例子是Inception架构,它已经被证明以相对较低的计算成本实现了非常好的性能。最近,“残差连接”的引入与传统结构相结合,在2015年ILSVRC挑战赛中取得了最先进的表现;其性能与最新一代Inception-v3网络类似。这就提出了一个问题:将“Inception”与“Residual connetctions”结合起来有什么好处吗?在这里,我们给出了明确的经验证原创 2022-03-29 23:47:50 · 1985 阅读 · 0 评论 -
InceptionV4 and Inception-ResNet模型介绍及实现代码
InceptionV4 and Inception-ResNet概述Inception 结构回顾GoogLeNet(Inception-V1)BN-inception(使用batch-normalization促进整个学习过程)Inception-V2 and V3堆叠三个模块为V2结合下采样模块和其他优化方法为V3Inception-V4Inception V4性能top1 和 top5 error参数量和计算效.原创 2022-03-29 23:37:01 · 2568 阅读 · 1 评论 -
知识蒸馏(Distilling the Knowledge in a Neural Network)论文
知识蒸馏(Distilling the Knowledge in a Neural Network)三大作者深度学习教父 Geoffery Hinton谷歌灵魂人物 oriol Vinyals谷歌核心人物 Jeff DeanAbstract多模型集成能提升机器学习性能是指多个性能较差的模型集合在一起可以提升整体的性能。同样集成模型也会出现部署笨重、算力高昂的问题,无法适用多数用户进行安装,训练这些模型也需要进行大量的计算。在一号文献中提到知识蒸馏,将一个集成模型.原创 2022-03-24 08:45:50 · 1067 阅读 · 0 评论 -
知识蒸馏算法原理
知识蒸馏算法原理“蒸馏”的概念大概就是将本身不够纯净的水通过加热变成水蒸气,冷凝之后就成更纯净的水知识蒸馏同样使用这种原理,将不太纯净的“知识”通过“蒸馏”的方式获得更加有用或者纯净的“知识”体现在神经网络中如下图所示:一个大而臃肿,但知识丰富且高效的“教师网络”,通过转换精准将特定领域的知识传授给“学生网络”,让“学生网络”在某个方面做得很好,并且不那么臃肿,类似“模型压缩”为什么不直接使用教师网络?因为将算法应用在现实生活中很多设备的算力会被限制,因此需要尽可能.原创 2022-03-21 09:46:37 · 9754 阅读 · 5 评论