总结
zkxhlbt
这个作者很懒,什么都没留下…
展开
-
2021.3.10学习记录
ubuntu截屏:ctrl+shift+printscreen ubuntu设置主屏幕: xrandr #查看显示器信息 xrandr --output name --primary# 设置主屏幕 如果想要freeze某些层或参数,用self.register_buffer(name, tensor)。这个函数在反向传播时不会更新参数。 读了coordinate Attention for Efficient Mobile Network Design(https://arxiv.or..原创 2021-03-10 19:48:16 · 73 阅读 · 0 评论 -
基于深度学习的行为识别框架和注意力机制的总结
2DCNN Two-stream TSN TSM:惊艳,领会精神了,还没认真读。 Inception Resnet 3DCNN C3D I3D S3D 可以由很强的2D 架构拓展而来 (2+1)D R(2+1)D 注意力机制 SENET : channel-wise attention SKNET: channel-wise+selective RFs NON-local: self-attention Transformer 经典架构:Attention is all you need ViT BERT:原创 2021-03-09 21:53:52 · 741 阅读 · 0 评论