模型怎样命名,才显得高大上?

为深度学习模型命名是一门重要的艺术,尤其是在论文和比赛中。一个好的模型名称不仅应该简洁易懂,还应传达模型的核心概念、特点或创新。要满足以下三点原则:

● 简洁明了:名称应尽量简洁,传达模型的主要特性

● 易于记忆:名称不应过于复杂,以便读者容易记住

● 描述性:名称应尽量反映出模型的关键组件和创新点

关于深度学习模型命名的建议和技巧:

1.1 反映模型的主要特点或机制

模型名称应该传达它的主要创新点或独特机制。比如,Transformer 模型的名称直接反映了它基于注意力机制的“转换”特性。

举例:

  • ResNet:Residual Network,表明该模型通过残差连接解决了深层网络的梯度消失问题。

  • DenseNet:Densely Connected Network,反映了模型中特征图之间的密集连接。

1.2 反映模型的主要特点或机制

简短且易记的缩写能帮助传播和接受。缩写通常基于模型名称的核心单词。

举例:

  • GAN:Generative Adversarial Network,生成对抗网络。

  • BERT:Bidirectional Encoder Representations from Transformers,双向编码器表示。

1.3 包含模型的结构或用途

如果模型具有特定的结构或用于某个任务,可以在名称中体现出来。

举例:

  • BiLSTM:Bidirectional Long Short-Term Memory,表示该模型使用了双向的LSTM结构。

  • Faster R-CNN:一种用于实时目标检测的快速区域卷积神经网络。

1.4 与社区惯例保持一致

使用符合领域惯例的命名方式,可以提高模型的可接受性和认知度。遵循标准或风格,使名称与已有的知名模型保持一致。

举例:

  • VGGNet:使用了研究团队名称“Visual Geometry Group”缩写,沿袭了学术界的命名习惯。

1.5 创意与个性

如果模型具有独特的特性或故事背景,可以在命名中注入一些创意和个性,以增加吸引力。

举例:

  • YOLO:You Only Look Once,一个著名的实时目标检测模型。

1.6 避免过于复杂或晦涩

  • 名称应尽量避免过长或过于晦涩难懂,这可能会阻碍传播或使用。

  • 名称的结构应当简单明了,以便听众或用户能够快速理解模型的核心内容。

往期高创新模型命名示例

2.1 Transformer-BiGRUGlobalAttention-CrossAttention

独家首发 | 基于多级注意力机制的并行预测模型-CSDN博客

(1) TransBiG-CAGAN (Transformer-BiGRU with Cross-Attention and Global Attention Network)

这个名称反映了你模型中使用的各个主要组件:

  • Trans:代表 Transformer。

  • BiG:代表 BiGRU。

  • CA:代表 Cross Attention。

  • GA:代表 Global Attention。

  • N:代表 Network。

(2) TBCG-Net (Transformer-BiGRU Cross-Global Attention Network)

这个名称简洁且描述性强:

  • TB:代表 Transformer 和 BiGRU。

  • C:代表 Cross Attention。

  • G:代表 Global Attention。

  • Net:代表 Network。

(3) TG-BiGCA (Transformer-Global BiGRU Cross-Attention)

这个名称强调了模型的四个关键组件:

  • T:代表 Transformer。

  • G:代表 Global Attention。

  • BiG:代表 BiGRU。

  • CA:代表 Cross Attention。

(4) TransBiGCA-Net (Transformer-BiGRU Cross-Global Attention Network)

这个名称类似于前几个建议,但更完整地描述了模型的所有组件:

  • Trans:代表 Transformer。

  • BiG:代表 BiGRU。

  • CA:代表 Cross Attention。

  • Net:代表 Network。

(5) TR-BiGCA (Transformer-BiGRU with Global and Cross Attention)

这个名称简单且描述性强:

  • TR:代表 Transformer。

  • BiG:代表 BiGRU。

  • CA:代表 Cross Attention。

  • GA:代表 Global Attention。

(6) BiG-TransCANet (BiGRU-Transformer Cross-Attention Network with Global Attention)

这个名称突出了 BiGRU 和 Transformer 的结合以及使用的注意力机制:

  • BiG:代表 BiGRU。

  • Trans:代表 Transformer。

  • CA:代表 Cross Attention。

  • Net:代表 Network。

2.2 TCN-SENet +BiGRU-GlobalAttention

独家原创 | 基于TCN-SENet +BiGRU-GlobalAttention并行预测模型-CSDN博客

(1) TSBG-Net (TCN-SENet-BiGRU-GlobalAttention Network)

  • TS:代表 TCN 和 SENet。

  • BG:代表 BiGRU。

  • Net:代表 Network。

(2) TSGA-BiGNet (TCN-SENet with Global Attention and BiGRU Network)

  • TSGA:代表 TCN, SENet, Global Attention。

  • BiG:代表 BiGRU。

  • Net:代表 Network。

(3) TSG-BiGAN (TCN-SENet Global BiGRU Attention Network)

  • TSG:代表 TCN, SENet, Global。

  • BiGA:代表 BiGRU Attention。

  • N:代表 Network。

(4) SE-TCBG-Net (SENet-Enhanced TCN-BiGRU Network with Global Attention)

  • SE:代表 SENet。

  • TCB:代表 TCN 和 BiGRU。

  • G:代表 Global Attention。

  • Net:代表 Network。

(5) TCSG-BiNet (TCN-SENet-GlobalAttention BiGRU Network)

  • TCSG:代表 TCN, SENet, Global Attention。

  • Bi:代表 BiGRU。

  • Net:代表 Network。

(6) BiGT-SENet (BiGRU with Global Attention and TCN-SENet)

  • BiGT:代表 BiGRU with Global Attention and TCN。

  • SE:代表 SENet。

2.3 TCN-Transformer-CrossAttention

独家原创 | SCI 1区 高创新预测模型!-CSDN博客

(1) TCT-CANet (TCN-Transformer Cross-Attention Network)

  • TC:代表 TCN。

  • T:代表 Transformer。

  • CA:代表 Cross Attention。

  • Net:代表 Network。

(2) T2C-Net (TCN with Transformer and Cross Attention Network)

  • T2:代表 TCN 和 Transformer(两个 T)。

  • C:代表 Cross Attention。

  • Net:代表 Network。

(3) TCN-TranCA (TCN-Transformer Cross-Attention)

  • TCN:代表 Temporal Convolutional Network。

  • Tran:代表 Transformer。

  • CA:代表 Cross Attention。

(4) TTCAN (TCN-Transformer Cross Attention Network)

  • TT:代表 TCN 和 Transformer。

  • CA:代表 Cross Attention。

  • N:代表 Network。

(5) TransTC-CA (Transformer-TCN with Cross Attention)

  • Trans:代表 Transformer。

  • TC:代表 TCN。

  • CA:代表 Cross Attention。

(6) TCAT-Net (TCN-Transformer Attention Network)

  • TCA:代表 TCN, Cross Attention。

  • T:代表 Transformer。

  • Net:代表 Network。

2.4 Informer + TCN-SENet

图片

(1) InfoTCN-SENet

独家原创 | 基于 Informer + TCN-SENet的并行预测模型

(1) InfoTCN-SENet

  • Info:代表 Informer。

  • TCN:代表 Temporal Convolutional Network。

  • SENet:代表 Squeeze-and-Excitation Network。

(2) TCN-InformerSE

  • TCN:代表 Temporal Convolutional Network。

  • Informer:直接使用 Informer 的名称。

  • SE:代表 SENet。

(3) Infor-SE-TCNNet

  • Infor:代表 Informer。

  • SE:代表 SENet。

  • TCNNet:代表 Temporal Convolutional Network。

(4) SE-TCNInformer

  • SE:代表 SENet。

  • TCNInformer:结合 TCN 和 Informer。

(5) InfTCN-SENet

  • Inf:代表 Informer。

  • TCN:代表 Temporal Convolutional Network。

  • SENet:代表 Squeeze-and-Excitation Network。

(6) Info-SE-TCN

  • Info:代表 Informer。

  • SE:代表 SENet。

  • TCN:代表 Temporal Convolutional Network。

2.5 GADF+ Swin Transformer-CNN-GAM

视觉顶会论文 | 基于Swin Transformer的轴承故障诊断_轴承t-sne特征可视化-CSDN博客

(1) GADF-SwinCGA

  • GADF:代表 Gramian Angular Difference Field。

  • Swin:代表 Swin Transformer。

  • CGA:代表 CNN 和 Global Attention。

(2) G-SwinTCGNet

  • G:代表 GADF。

  • Swin:代表 Swin Transformer。

  • TCG:代表 T(Transformer)、C(CNN)、G(Global Attention)。

  • Net:代表 Network。

(3) Swin-GADF-CANet

  • Swin:代表 Swin Transformer。

  • GADF:代表 Gramian Angular Difference Field。

  • CA:代表 CNN 和 Attention。

  • Net:代表 Network。

(4) GADF-STCNet

  • GADF:代表 Gramian Angular Difference Field。

  • ST:代表 Swin Transformer。

  • CNet:代表 CNN 和全局注意力网络。

(5) SwinCG-GADFNet

  • SwinCG:代表 Swin Transformer 和 CNN with Global Attention。

  • GADFNet:结合 GADF 的网络。

(6) GASF-SwinTGAM

  • GADF:代表 Gramian Angular Difference Field。

  • SwinT:代表 Swin Transformer。

  • GAM:代表 Global Attention Mechanism。

总结

深度学习模型的命名是一门艺术,既要简洁明了,又要能够准确反映模型的核心特征或创新。一个好的模型名称不仅有助于学术传播和行业应用,还能使模型在众多研究成果中脱颖而出。

祝大家早日发文!!!

更多模型代码、资料,请点击下方卡片获取!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值