总结
zkxhlbt
这个作者很懒,什么都没留下…
展开
-
2021.3.10学习记录
ubuntu截屏:ctrl+shift+printscreenubuntu设置主屏幕:xrandr #查看显示器信息xrandr --output name --primary# 设置主屏幕如果想要freeze某些层或参数,用self.register_buffer(name, tensor)。这个函数在反向传播时不会更新参数。读了coordinate Attention for Efficient Mobile Network Design(https://arxiv.or..原创 2021-03-10 19:48:16 · 81 阅读 · 0 评论 -
基于深度学习的行为识别框架和注意力机制的总结
2DCNNTwo-streamTSNTSM:惊艳,领会精神了,还没认真读。InceptionResnet3DCNNC3DI3DS3D可以由很强的2D 架构拓展而来(2+1)DR(2+1)D注意力机制SENET : channel-wise attentionSKNET: channel-wise+selective RFsNON-local: self-attentionTransformer经典架构:Attention is all you needViTBERT:原创 2021-03-09 21:53:52 · 765 阅读 · 0 评论