![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
枫呱呱
这个作者很懒,什么都没留下…
展开
-
修改pytorch模型名称
strict = False # 部分参数名称不一致时可忽略,不会报错。原创 2024-07-11 15:24:06 · 44 阅读 · 0 评论 -
注意力机制结构在resnet中的应用方式
import torchimport torch.nn as nn#__all__ = ['ResNet', 'resnet18', 'resnet34', 'resnet50', 'resnet101',# 'resnet152', 'resnext50_32x4d', 'resnext101_32x8d',# 'wide_resnet50_2', 'wide_resnet101_2']###model_urls = {# 'resne.原创 2021-07-30 17:15:09 · 8614 阅读 · 11 评论 -
SimAM: 无参Attention----核心分析
SimAM: A Simple, Parameter-Free Attention Module for Convolutional Neural Networks论文链接(已收录于ICML 2021):http://proceedings.mlr.press/v139/yang21o.htmlcode: https://github.com/ZjjConan/SimAM参考博客:https://blog.csdn.net/hb_learing/article/details/1190778原创 2021-07-30 14:23:44 · 4177 阅读 · 4 评论